代码拉取完成,页面将自动刷新
.. py:class:: mindspore.nn.NaturalExpDecayLR(learning_rate, decay_rate, decay_steps, is_stair=False) 基于自然指数衰减函数计算学习率。 对于当前step,计算学习率的公式为: .. math:: decayed\_learning\_rate = learning\_rate * e^{-decay\_rate * p} 其中, .. math:: p = \frac{current\_step}{decay\_steps} 如果 `is_stair` 为True,则公式为: .. math:: p = floor(\frac{current\_step}{decay\_steps}) 参数: - **learning_rate** (float) - 学习率的初始值。 - **decay_rate** (float) - 衰减率。 - **decay_steps** (int) - 进行衰减的step数。 - **is_stair** (bool) - 如果为 ``True`` ,则学习率每 `decay_steps` 次衰减一次。默认值: ``False`` 。 输入: - **global_step** (Tensor)- 当前step数,即current_step,shape为 :math:`()`。 输出: 标量Tensor。当前step的学习率值。 异常: - **TypeError** - `learning_rate` 或 `decay_rate` 不是float。 - **TypeError** - `decay_steps` 不是int或 `is_stair` 不是bool。 - **ValueError** - `decay_steps` 小于1。 - **ValueError** - `learning_rate` 或 `decay_rate` 小于或等于0。
此处可能存在不合适展示的内容,页面不予展示。您可通过相关编辑功能自查并修改。
如您确认内容无涉及 不当用语 / 纯广告导流 / 暴力 / 低俗色情 / 侵权 / 盗版 / 虚假 / 无价值内容或违法国家有关法律法规的内容,可点击提交进行申诉,我们将尽快为您处理。