gluonts.torch.model.i_transformer 包#
- 类 gluonts.torch.model.i_transformer.ITransformerEstimator(prediction_length: int, context_length: Optional[int] = None, d_model: int = 32, nhead: int = 4, dim_feedforward: int = 128, dropout: float = 0.1, activation: str = 'relu', norm_first: bool = False, num_encoder_layers: int = 2, lr: float = 0.001, weight_decay: float = 1e-08, scaling: Optional[str] = 'mean', distr_output: gluonts.torch.distributions.output.Output = gluonts.torch.distributions.studentT.StudentTOutput(beta=0.0), num_parallel_samples: int = 100, batch_size: int = 32, num_batches_per_epoch: int = 50, trainer_kwargs: Optional[Dict[str, Any]] = None, train_sampler: Optional[gluonts.transform.sampler.InstanceSampler] = None, validation_sampler: Optional[gluonts.transform.sampler.InstanceSampler] = None, nonnegative_pred_samples: bool = False)[source]#
- 基类: - gluonts.torch.model.estimator.PyTorchLightningEstimator- 用于训练 iTransformer 模型进行多元时间序列预测的估计器,如 https://arxiv.org/abs/2310.06625 中所述,并扩展为概率模型。 - 此类使用在 - ITransformerModel中定义的模型,并将其封装到- ITransformerLightningModule中用于训练:训练是使用 PyTorch Lightning 的- pl.Trainer类进行的。- 参数
- prediction_length (int) – 预测范围的长度。 
- context_length – 模型作为输入的时间点数(预测时间之前)(默认: - 10 * prediction_length)。
- d_model – Transformer 编码器中潜在空间的维度。 
- nhead – Transformer 编码器中注意力头的数量,必须能整除 d_model。 
- dim_feedforward – Transformer 编码器中隐藏层的维度。 
- dropout – Transformer 编码器中的 dropout 概率。 
- activation – Transformer 编码器中的激活函数。 
- norm_first – 是否在注意力机制之前或之后应用归一化。 
- num_encoder_layers – Transformer 编码器中的层数。 
- lr – 学习率(默认: - 1e-3)。
- weight_decay – 权重衰减正则化参数(默认: - 1e-8)。
- scaling – 缩放参数可以是“mean”、“std”或 None。 
- distr_output – 用于评估观测值和采样预测的分布(默认:StudentTOutput())。 
- num_parallel_samples – 每个时间序列的样本数量,预测器应该产生(默认:100)。 
- batch_size – 用于训练的批次大小(默认:32)。 
- num_batches_per_epoch – - 每个训练 epoch 中处理的批次数量
- (默认:50)。 
 
- trainer_kwargs – 提供给 - pl.Trainer构造函数的额外参数。
- train_sampler – 控制训练期间窗口的采样。 
- validation_sampler – 控制验证期间窗口的采样。 
- nonnegative_pred_samples – 最终预测样本是否应该是非负的?如果是,则应用激活函数以确保非负性。请注意,这仅应用于最终样本,并且在训练期间不应用。 
 
 - create_lightning_module() lightning.pytorch.core.module.LightningModule[source]#
- 创建并返回用于训练(即计算损失)的网络。 - 返回值
- 给定输入数据计算损失的网络。 
- 返回类型
- pl.LightningModule 
 
 - create_predictor(transformation: gluonts.transform._base.Transformation, module) gluonts.torch.model.predictor.PyTorchPredictor[source]#
- 创建并返回预测器对象。 - 参数
- transformation – 在数据进入模型之前应用的转换。 
- module – 一个已训练的 pl.LightningModule 对象。 
 
- 返回值
- 封装用于推理的 nn.Module 的预测器。 
- 返回类型
 
 - create_training_data_loader(data: gluonts.dataset.Dataset, module: gluonts.torch.model.i_transformer.lightning_module.ITransformerLightningModule, shuffle_buffer_length: Optional[int] = None, **kwargs) Iterable[source]#
- 为训练目的创建数据加载器。 - 参数
- data – 用于创建数据加载器的数据集。 
- module – 将接收数据加载器批次的 pl.LightningModule 对象。 
 
- 返回值
- 数据加载器,即数据的批次上的迭代器。 
- 返回类型
- 迭代器 
 
 - create_transformation() gluonts.transform._base.Transformation[source]#
- 创建并返回训练和推理所需的转换。 - 返回值
- 将在训练和推理时逐条应用于数据集的转换。 
- 返回类型
 
 - create_validation_data_loader(data: gluonts.dataset.Dataset, module: gluonts.torch.model.i_transformer.lightning_module.ITransformerLightningModule, **kwargs) Iterable[source]#
- 为验证目的创建数据加载器。 - 参数
- data – 用于创建数据加载器的数据集。 
- module – 将接收数据加载器批次的 pl.LightningModule 对象。 
 
- 返回值
- 数据加载器,即数据的批次上的迭代器。 
- 返回类型
- 迭代器 
 
 - lead_time: int#
 - prediction_length: int#
 
- 类 gluonts.torch.model.i_transformer.ITransformerLightningModule(model_kwargs: dict, num_parallel_samples: int = 100, lr: float = 0.001, weight_decay: float = 1e-08)[source]#
- 基类: - lightning.pytorch.core.module.LightningModule- 一个 - pl.LightningModule类,可用于使用 PyTorch Lightning 训练- ITransformerModel。- 这是围绕(封装的) - ITransformerModel对象的一个薄层,它公开了评估训练和验证损失的方法。- 参数
- model_kwargs – 用于构造要训练的 - ITransformerModel的关键字参数。
- num_parallel_samples – 在推理期间采样的每个时间序列的评估样本数。 
- lr – 学习率。 
- weight_decay – 权重衰减正则化参数。 
 
 
- 类 gluonts.torch.model.i_transformer.ITransformerModel(prediction_length: int, context_length: int, d_model: int, nhead: int, dim_feedforward: int, dropout: float, activation: str, norm_first: bool, num_encoder_layers: int, scaling: Optional[str], distr_output=gluonts.torch.distributions.studentT.StudentTOutput(beta=0.0), nonnegative_pred_samples: bool = False)[source]#
- 基类: - torch.nn.modules.module.Module- 实现 iTransformer 模型进行多元时间序列预测的模块,如 https://arxiv.org/abs/2310.06625 中所述,并扩展为概率模型。 - 参数
- prediction_length – 要预测的时间点数。 
- context_length – 预测时间之前模型使用的时间步数。 
- d_model – Transformer 潜在维度。 
- nhead – 注意力头的数量,必须能被 d_model 整除。 
- dim_feedforward – Transformer 前馈网络的维度。 
- dropout – Transformer 的 dropout 率。 
- activation – Transformer 的激活函数。 
- norm_first – 是否在 Transformer 之前对输入进行归一化。 
- num_encoder_layers – Transformer 编码器层数。 
- scaling – 是否使用均值(mean)、标准差(std)或 None 对输入进行缩放。 
- distr_output – 用于评估观测值和采样预测的分布。默认值: - StudentTOutput()。
- nonnegative_pred_samples – 最终预测样本是否应该是非负的?如果是,则应用激活函数以确保非负性。请注意,这仅应用于最终样本,并且在训练期间不应用。 
 
 - describe_inputs(batch_size=1) gluonts.model.inputs.InputSpec[source]#
 - forward(past_target: torch.Tensor, past_observed_values: torch.Tensor) Tuple[Tuple[torch.Tensor, ...], torch.Tensor, torch.Tensor][source]#
- 定义每次调用时执行的计算。 - 应由所有子类重写。 - 注意 - 尽管 forward 方法的实现需要在该函数内定义,但之后应调用 - Module实例而不是该函数本身,因为前者负责运行已注册的钩子,而后者会静默忽略它们。
 - loss(past_target: torch.Tensor, past_observed_values: torch.Tensor, future_target: torch.Tensor, future_observed_values: torch.Tensor) torch.Tensor[source]#
 - training: bool#