gluonts.mx.block.regularization 模块#

class gluonts.mx.block.regularization.ActivationRegularizationLoss(alpha: float = 0.0, weight: Optional[float] = None, batch_axis: int = 1, time_axis: int = 0, **kwargs)[源代码]#

基类:mxnet.gluon.loss.Loss

\[L = \alpha \|h_t\|_2^2,\]

其中 \(h_t\) 是 RNN 在时间步 t 的输出。 \(\alpha\) 是缩放系数。此实现遵循 [MMS17]。计算激活正则化损失。(别名: AR)

参数
  • alpha – 正则化的缩放系数。

  • weight – 损失的全局标量权重。

  • batch_axis – 表示 mini-batch 的轴。

  • time_axis – 表示时间步的轴。

hybrid_forward(F, *states: List[Union[mxnet.ndarray.ndarray.NDArray, mxnet.symbol.symbol.Symbol]]) Union[mxnet.ndarray.ndarray.NDArray, mxnet.symbol.symbol.Symbol][源代码]#
参数

states – RNN 的堆叠输出,包含每个时间步的输出。

返回

形状为 (batch_size,) 的损失张量。除了 batch_axis 之外的维度都被平均了。

返回类型

Tensor

class gluonts.mx.block.regularization.TemporalActivationRegularizationLoss(beta: float = 0, weight: Optional[float] = None, batch_axis: int = 1, time_axis: int = 0, **kwargs)[源代码]#

基类:mxnet.gluon.loss.Loss

\[L = \beta \| h_t-h_{t+1} \|_2^2,\]

其中 \(h_t\) 是 RNN 在时间步 t 的输出,\(h_{t+1}\) 是 RNN 在时间步 t+1 的输出,\(\beta\) 是缩放系数。

此实现遵循 [MMS17]。计算时间激活正则化损失。(别名: TAR)

参数
  • beta – 正则化的缩放系数。

  • weight – 损失的全局标量权重。

  • batch_axis – 表示 mini-batch 的轴。

  • time_axis – 表示时间步的轴。

hybrid_forward(F, *states: List[Union[mxnet.ndarray.ndarray.NDArray, mxnet.symbol.symbol.Symbol]]) Union[mxnet.ndarray.ndarray.NDArray, mxnet.symbol.symbol.Symbol][源代码]#
参数

states – RNN 的堆叠输出,包含每个时间步的输出。

返回

形状为 (batch_size,) 的损失张量。除了 batch_axis 之外的维度都被平均了。

返回类型

Tensor