gluonts.torch.model.tide.module 模块#
- class gluonts.torch.model.tide.module.DenseDecoder(num_layers: int, hidden_dim: int, output_dim: int, dropout_rate: float, layer_norm: bool)[source]#
- 基类: - torch.nn.modules.module.Module- forward(x)[source]#
- 定义每次调用时执行的计算。 - 应由所有子类重写。 - 注意 - 尽管 forward pass 的实现需要在该函数内定义,但随后应该调用 - Module实例而不是直接调用此函数,因为前者负责运行已注册的 hook,而后者会默默忽略它们。
 - training: bool#
 
- class gluonts.torch.model.tide.module.DenseEncoder(num_layers: int, input_dim: int, hidden_dim: int, dropout_rate: float, layer_norm: bool)[source]#
- 基类: - torch.nn.modules.module.Module- forward(x)[source]#
- 定义每次调用时执行的计算。 - 应由所有子类重写。 - 注意 - 尽管 forward pass 的实现需要在该函数内定义,但随后应该调用 - Module实例而不是直接调用此函数,因为前者负责运行已注册的 hook,而后者会默默忽略它们。
 - training: bool#
 
- class gluonts.torch.model.tide.module.FeatureProjection(input_dim: int, hidden_dim: int, output_dim: int, dropout_rate: float, layer_norm: bool)[source]#
- 基类: - torch.nn.modules.module.Module- forward(x)[source]#
- 定义每次调用时执行的计算。 - 应由所有子类重写。 - 注意 - 尽管 forward pass 的实现需要在该函数内定义,但随后应该调用 - Module实例而不是直接调用此函数,因为前者负责运行已注册的 hook,而后者会默默忽略它们。
 - training: bool#
 
- class gluonts.torch.model.tide.module.ResBlock(dim_in: int, dim_hidden: int, dim_out: int, dropout_rate: float, layer_norm: bool)[source]#
- 基类: - torch.nn.modules.module.Module- forward(x)[source]#
- 定义每次调用时执行的计算。 - 应由所有子类重写。 - 注意 - 尽管 forward pass 的实现需要在该函数内定义,但随后应该调用 - Module实例而不是直接调用此函数,因为前者负责运行已注册的 hook,而后者会默默忽略它们。
 - training: bool#
 
- class gluonts.torch.model.tide.module.TemporalDecoder(input_dim: int, hidden_dim: int, output_dim: int, dropout_rate: float, layer_norm: bool)[source]#
- 基类: - torch.nn.modules.module.Module- forward(x)[source]#
- 定义每次调用时执行的计算。 - 应由所有子类重写。 - 注意 - 尽管 forward pass 的实现需要在该函数内定义,但随后应该调用 - Module实例而不是直接调用此函数,因为前者负责运行已注册的 hook,而后者会默默忽略它们。
 - training: bool#
 
- class gluonts.torch.model.tide.module.TiDEModel(context_length: int, prediction_length: int, num_feat_dynamic_real: int, num_feat_dynamic_proj: int, num_feat_static_real: int, num_feat_static_cat: int, cardinality: List[int], embedding_dimension: List[int], feat_proj_hidden_dim: int, encoder_hidden_dim: int, decoder_hidden_dim: int, temporal_hidden_dim: int, distr_hidden_dim: int, decoder_output_dim: int, dropout_rate: float, num_layers_encoder: int, num_layers_decoder: int, layer_norm: bool, distr_output: gluonts.torch.distributions.output.Output, scaling: str)[source]#
- 基类: - torch.nn.modules.module.Module- 参数
- context_length – 模型作为输入的时间步长,位于预测时间之前。 
- prediction_length – 预测范围的长度。 
- num_feat_dynamic_proj – 特征投影层的输出大小。 
- num_feat_dynamic_real – 数据中动态实数特征的数量。 
- num_feat_static_real – 数据中静态实数特征的数量。 
- num_feat_static_cat – 数据中静态分类特征的数量。 
- cardinality – 每个分类特征的值的数量。如果 - num_feat_static_cat > 0,则必须设置此参数。
- embedding_dimension – 分类特征嵌入的维度。 
- feat_proj_hidden_dim – 特征投影层的大小。 
- encoder_hidden_dim – 密集编码器层的大小。 
- decoder_hidden_dim – 密集解码器层的大小。 
- temporal_hidden_dim – 时间解码器层的大小。 
- distr_hidden_dim – 分布投影层的大小。 
- decoder_output_dim – 密集解码器的输出大小。 
- dropout_rate – Dropout 正则化参数。 
- num_layers_encoder – 密集编码器中的层数。 
- num_layers_decoder – 密集解码器中的层数。 
- layer_norm – 是否启用层归一化。 
- distr_output – 用于评估观测值和采样预测的分布。 
- scaling – 用于缩放目标值的缩放方法。 
 
 - describe_inputs(batch_size=1) gluonts.model.inputs.InputSpec[source]#
 - forward(feat_static_real: torch.Tensor, feat_static_cat: torch.Tensor, past_time_feat: torch.Tensor, past_target: torch.Tensor, past_observed_values: torch.Tensor, future_time_feat: torch.Tensor) Tuple[Tuple[torch.Tensor, ...], torch.Tensor, torch.Tensor][source]#
- 定义每次调用时执行的计算。 - 应由所有子类重写。 - 注意 - 尽管 forward pass 的实现需要在该函数内定义,但随后应该调用 - Module实例而不是直接调用此函数,因为前者负责运行已注册的 hook,而后者会默默忽略它们。
 - loss(feat_static_real: torch.Tensor, feat_static_cat: torch.Tensor, past_time_feat: torch.Tensor, past_target: torch.Tensor, past_observed_values: torch.Tensor, future_time_feat: torch.Tensor, future_target: torch.Tensor, future_observed_values: torch.Tensor)[source]#
 - training: bool#