gluonts.mx.block.regularization 模块#
- class gluonts.mx.block.regularization.ActivationRegularizationLoss(alpha: float = 0.0, weight: Optional[float] = None, batch_axis: int = 1, time_axis: int = 0, **kwargs)[源代码]#
基类:
mxnet.gluon.loss.Loss
\[L = \alpha \|h_t\|_2^2,\]其中 \(h_t\) 是 RNN 在时间步 t 的输出。 \(\alpha\) 是缩放系数。此实现遵循 [MMS17]。计算激活正则化损失。(别名: AR)
- 参数
alpha – 正则化的缩放系数。
weight – 损失的全局标量权重。
batch_axis – 表示 mini-batch 的轴。
time_axis – 表示时间步的轴。
- class gluonts.mx.block.regularization.TemporalActivationRegularizationLoss(beta: float = 0, weight: Optional[float] = None, batch_axis: int = 1, time_axis: int = 0, **kwargs)[源代码]#
基类:
mxnet.gluon.loss.Loss
\[L = \beta \| h_t-h_{t+1} \|_2^2,\]其中 \(h_t\) 是 RNN 在时间步 t 的输出,\(h_{t+1}\) 是 RNN 在时间步 t+1 的输出,\(\beta\) 是缩放系数。
此实现遵循 [MMS17]。计算时间激活正则化损失。(别名: TAR)
- 参数
beta – 正则化的缩放系数。
weight – 损失的全局标量权重。
batch_axis – 表示 mini-batch 的轴。
time_axis – 表示时间步的轴。