2.6K Star 8.6K Fork 4.8K

GVPMindSpore/mindspore

加入 Gitee
与超过 1200万 开发者一起发现、参与优秀开源项目,私有仓库也完全免费 :)
免费加入
克隆/下载
mindspore.nn.NaturalExpDecayLR.rst 1.32 KB
一键复制 编辑 原始数据 按行查看 历史
wind-zyx 提交于 2023-04-20 09:53 . update value format 0420

mindspore.nn.NaturalExpDecayLR

.. py:class:: mindspore.nn.NaturalExpDecayLR(learning_rate, decay_rate, decay_steps, is_stair=False)

    基于自然指数衰减函数计算学习率。

    对于当前step,计算学习率的公式为:

    .. math::
        decayed\_learning\_rate = learning\_rate * e^{-decay\_rate * p}

    其中,

    .. math::
        p = \frac{current\_step}{decay\_steps}

    如果 `is_stair` 为True,则公式为:

    .. math::
        p = floor(\frac{current\_step}{decay\_steps})

    参数:
        - **learning_rate** (float) - 学习率的初始值。
        - **decay_rate** (float) - 衰减率。
        - **decay_steps** (int) - 进行衰减的step数。
        - **is_stair** (bool) - 如果为 ``True`` ,则学习率每 `decay_steps` 次衰减一次。默认值: ``False`` 。

    输入:
        - **global_step** (Tensor)- 当前step数,即current_step,shape为 :math:`()`。

    输出:
        标量Tensor。当前step的学习率值。

    异常:
        - **TypeError** - `learning_rate` 或 `decay_rate` 不是float。
        - **TypeError** - `decay_steps` 不是int或 `is_stair` 不是bool。
        - **ValueError** - `decay_steps` 小于1。
        - **ValueError** - `learning_rate` 或 `decay_rate` 小于或等于0。
马建仓 AI 助手
尝试更多
代码解读
代码找茬
代码优化
Python
1
https://gitee.com/mindspore/mindspore.git
git@gitee.com:mindspore/mindspore.git
mindspore
mindspore
mindspore
r2.2

搜索帮助