gluonts.torch.model.tide 包#

class gluonts.torch.model.tide.TiDEEstimator(freq: str, prediction_length: int, context_length: Optional[int] = None, feat_proj_hidden_dim: Optional[int] = None, encoder_hidden_dim: Optional[int] = None, decoder_hidden_dim: Optional[int] = None, temporal_hidden_dim: Optional[int] = None, distr_hidden_dim: Optional[int] = None, num_layers_encoder: Optional[int] = None, num_layers_decoder: Optional[int] = None, decoder_output_dim: Optional[int] = None, dropout_rate: Optional[float] = None, num_feat_dynamic_proj: Optional[int] = None, num_feat_dynamic_real: int = 0, num_feat_static_real: int = 0, num_feat_static_cat: int = 0, cardinality: Optional[List[int]] = None, embedding_dimension: Optional[List[int]] = None, layer_norm: bool = False, lr: float = 0.001, weight_decay: float = 1e-08, patience: int = 10, scaling: Optional[str] = 'mean', distr_output: gluonts.torch.distributions.output.Output = gluonts.torch.distributions.studentT.StudentTOutput(beta=0.0), batch_size: int = 32, num_batches_per_epoch: int = 50, trainer_kwargs: Optional[Dict[str, Any]] = None, train_sampler: Optional[gluonts.transform.sampler.InstanceSampler] = None, validation_sampler: Optional[gluonts.transform.sampler.InstanceSampler] = None)[source]#

基类: gluonts.torch.model.estimator.PyTorchLightningEstimator

一个训练 TiDE 模型的估计器,该模型源自论文 https://arxiv.org/abs/2304.08424 并扩展用于概率预测。

此类使用在 TiDEModel 中定义的模型,并将其封装到 TiDELightningModule 中用于训练:训练是使用 PyTorch Lightning 的 pl.Trainer 类执行的。

参数
  • freq – 用于训练和预测的数据频率。

  • prediction_length (int) – 预测范围的长度。

  • context_length – 模型作为输入的预测时间之前的步数(默认值:prediction_length)。

  • feat_proj_hidden_dim – 特征投影层的尺寸(默认值:4)。

  • encoder_hidden_dim – 密集编码器层的尺寸(默认值:4)。

  • decoder_hidden_dim – 密集解码器层的尺寸(默认值:4)。

  • temporal_hidden_dim – 时间解码器层的尺寸(默认值:4)。

  • distr_hidden_dim – 分布投影层的尺寸(默认值:4)。

  • num_layers_encoder – 密集编码器中的层数(默认值:1)。

  • num_layers_decoder – 密集解码器中的层数(默认值:1)。

  • decoder_output_dim – 密集解码器的输出尺寸(默认值:4)。

  • dropout_rate – Dropout 正则化参数(默认值:0.3)。

  • num_feat_dynamic_proj – 特征投影层的输出尺寸(默认值:2)。

  • num_feat_dynamic_real – 数据中动态实值特征的数量(默认值:0)。

  • num_feat_static_real – 数据中静态实值特征的数量(默认值:0)。

  • num_feat_static_cat – 数据中静态类别特征的数量(默认值:0)。

  • cardinality – 每个类别特征的值的数量。如果 num_feat_static_cat > 0,则必须设置此参数(默认值:None)。

  • embedding_dimension – 类别特征嵌入的维度(默认值:[16 for cat in cardinality])。

  • layer_norm – 是否启用层归一化(默认值:False)。

  • lr – 学习率(默认值:1e-3)。

  • weight_decay – 权重衰减正则化参数(默认值:1e-8)。

  • patience – 学习率调度器的 patience 参数(默认值:10)。

  • distr_output – 用于评估观测值和样本预测的分布(默认值:StudentTOutput())。

  • scaling – 用于缩放目标值的缩放方法(默认值:mean)。

  • batch_size – 用于训练的批次大小(默认值:32)。

  • num_batches_per_epoch – 每个训练 epoch 要处理的批次数量(默认值:50)。

  • trainer_kwargs – 提供给 pl.Trainer 的额外构建参数。

  • train_sampler – 控制训练期间窗口的采样。

  • validation_sampler – 控制验证期间窗口的采样。

create_lightning_module() lightning.pytorch.core.module.LightningModule[source]#

创建并返回用于训练的网络(即计算损失的网络)。

返回值

根据输入数据计算损失的网络。

返回类型

pl.LightningModule

create_predictor(transformation: gluonts.transform._base.Transformation, module) gluonts.torch.model.predictor.PyTorchPredictor[source]#

创建并返回一个预测器对象。

参数
  • transformation – 在数据进入模型之前应用于数据的转换。

  • module – 一个训练好的 pl.LightningModule 对象。

返回值

一个包装用于推理的 nn.Module 的预测器。

返回类型

预测器

create_training_data_loader(data: gluonts.dataset.Dataset, module: gluonts.torch.model.tide.lightning_module.TiDELightningModule, shuffle_buffer_length: Optional[int] = None, **kwargs) Iterable[source]#

创建一个用于训练目的的数据加载器。

参数
  • data – 用于创建数据加载器的数据集。

  • module – 将接收数据加载器批次的 pl.LightningModule 对象。

返回值

数据加载器,即数据批次的可迭代对象。

返回类型

Iterable

create_transformation() gluonts.transform._base.Transformation[source]#

创建并返回训练和推理所需的转换。

返回值

在训练和推理时,将按条目应用于数据集的转换。

返回类型

Transformation

create_validation_data_loader(data: gluonts.dataset.Dataset, module: gluonts.torch.model.tide.lightning_module.TiDELightningModule, **kwargs) Iterable[source]#

创建一个用于验证目的的数据加载器。

参数
  • data – 用于创建数据加载器的数据集。

  • module – 将接收数据加载器批次的 pl.LightningModule 对象。

返回值

数据加载器,即数据批次的可迭代对象。

返回类型

Iterable

lead_time: int#
prediction_length: int#
class gluonts.torch.model.tide.TiDELightningModule(model_kwargs: dict, lr: float = 0.001, weight_decay: float = 1e-08, patience: int = 10)[source]#

基类: lightning.pytorch.core.module.LightningModule

一个 pl.LightningModule 类,可用于使用 PyTorch Lightning 训练 TiDEModel

这是对(封装的)TiDEModel 对象的薄层封装,它公开了用于评估训练和验证损失的方法。

参数
  • model_kwargs – 用于构建待训练的 TiDEModel 的关键字参数。

  • lr – 学习率。

  • weight_decay – 权重衰减正则化参数。

  • patience – 学习率调度器的 patience 参数。

configure_optimizers()[source]#

返回要使用的优化器。

forward(*args, **kwargs)[source]#

torch.nn.Module.forward()

参数
  • *args – 决定传入 forward 方法的任意参数。

  • **kwargs – 也支持关键字参数。

返回值

您的模型的输出

training_step(batch, batch_idx: int)[source]#

执行训练步骤。

validation_step(batch, batch_idx: int)[source]#

执行验证步骤。

class gluonts.torch.model.tide.TiDEModel(context_length: int, prediction_length: int, num_feat_dynamic_real: int, num_feat_dynamic_proj: int, num_feat_static_real: int, num_feat_static_cat: int, cardinality: List[int], embedding_dimension: List[int], feat_proj_hidden_dim: int, encoder_hidden_dim: int, decoder_hidden_dim: int, temporal_hidden_dim: int, distr_hidden_dim: int, decoder_output_dim: int, dropout_rate: float, num_layers_encoder: int, num_layers_decoder: int, layer_norm: bool, distr_output: gluonts.torch.distributions.output.Output, scaling: str)[source]#

基类: torch.nn.modules.module.Module

参数
  • context_length – 模型作为输入的预测时间之前的步数。

  • prediction_length – 预测范围的长度。

  • num_feat_dynamic_proj – 特征投影层的输出尺寸。

  • num_feat_dynamic_real – 数据中动态实值特征的数量。

  • num_feat_static_real – 数据中静态实值特征的数量。

  • num_feat_static_cat – 数据中静态类别特征的数量。

  • cardinality – 每个类别特征的值的数量。如果 num_feat_static_cat > 0,则必须设置此参数。

  • embedding_dimension – 类别特征嵌入的维度。

  • feat_proj_hidden_dim – 特征投影层的尺寸。

  • encoder_hidden_dim – 密集编码器层的尺寸。

  • decoder_hidden_dim – 密集解码器层的尺寸。

  • temporal_hidden_dim – 时间解码器层的尺寸。

  • distr_hidden_dim – 分布投影层的尺寸。

  • decoder_output_dim – 密集解码器的输出尺寸。

  • dropout_rate – Dropout 正则化参数。

  • num_layers_encoder – 密集编码器中的层数。

  • num_layers_decoder – 密集解码器中的层数。

  • layer_norm – 是否启用层归一化。

  • distr_output – 用于评估观测值和样本预测的分布。

  • scaling – 用于缩放目标值的缩放方法。

describe_inputs(batch_size=1) gluonts.model.inputs.InputSpec[source]#
forward(feat_static_real: torch.Tensor, feat_static_cat: torch.Tensor, past_time_feat: torch.Tensor, past_target: torch.Tensor, past_observed_values: torch.Tensor, future_time_feat: torch.Tensor) Tuple[Tuple[torch.Tensor, ...], torch.Tensor, torch.Tensor][source]#

定义每次调用时执行的计算。

应由所有子类重写。

注意

虽然 forward pass 的实现需要在此函数中定义,但之后应调用 Module 实例而不是此函数,因为前者会运行已注册的钩子,而后者则默默忽略它们。

loss(feat_static_real: torch.Tensor, feat_static_cat: torch.Tensor, past_time_feat: torch.Tensor, past_target: torch.Tensor, past_observed_values: torch.Tensor, future_time_feat: torch.Tensor, future_target: torch.Tensor, future_observed_values: torch.Tensor)[source]#
training: bool#