代码拉取完成,页面将自动刷新
.. py:class:: mindspore.nn.DynamicLossScaleUpdateCell(loss_scale_value, scale_factor, scale_window) 用于动态更新损失缩放系数(loss scale)的神经元。 使用混合精度功能进行训练时,初始损失缩放系数值为 `loss_scale_value`。在每个训练步骤中,当出现溢出时,通过计算公式 `loss_scale`/`scale_factor` 减小损失缩放系数。如果连续 `scale_window` 步(step)未溢出,则将通过 `loss_scale` * `scale_factor` 增大损失缩放系数。 该类是 :class:`mindspore.amp.DynamicLossScaleManager` 的 `get_update_cell` 方法的返回值。训练过程中,类 :class:`mindspore.nn.TrainOneStepWithLossScaleCell` 会调用该Cell来更新损失缩放系数。 参数: - **loss_scale_value** (float) - 初始的损失缩放系数。 - **scale_factor** (int) - 增减系数。 - **scale_window** (int) - 未溢出时,增大损失缩放系数的最大连续训练步数。 输入: - **loss_scale** (Tensor) - 训练期间的损失缩放系数,是一个标量,shape为 :math:`()`。 - **overflow** (bool) - 是否发生溢出。 输出: Bool,即输入 `overflow` 。 .. py:method:: get_loss_scale() 获取当前损失缩放系数。 返回: float,损失缩放系数。
此处可能存在不合适展示的内容,页面不予展示。您可通过相关编辑功能自查并修改。
如您确认内容无涉及 不当用语 / 纯广告导流 / 暴力 / 低俗色情 / 侵权 / 盗版 / 虚假 / 无价值内容或违法国家有关法律法规的内容,可点击提交进行申诉,我们将尽快为您处理。