代码拉取完成,页面将自动刷新
.. py:class:: mindspore.nn.CELU(alpha=1.0) CELU激活层(CELU Activation Operator)。 根据Continuously Differentiable Exponential Linear Units对输入Tensor逐元素计算。 .. math:: \text{CELU}(x) = \max(0,x) + \min(0, \alpha * (\exp(x/\alpha) - 1)) 更多详情,请查看: `CELU <https://arxiv.org/abs/1704.07483>`_ 。 CELU函数图: .. image:: ../images/CELU.png :align: center 参数: - **alpha** (float) - CELU公式中的 :math:`\alpha` 值。默认值: ``1.0`` 。 输入: - **x** (Tensor) - CELU的输入。其数据类型为float16或float32,shape为 :math:`(N,*)` ,其中 :math:`*` 表示任何数量的附加维度。 输出: Tensor,数据类型和shape与 `x` 相同。 异常: - **TypeError** - 如果 `α` 不是float。 - **ValueError** - 如果 `α` 的值为0。 - **TypeError** - 如果输入 `x` 不是Tensor。 - **TypeError** - 如果输入 `x` 的数据类型既不是float16也不是float32。
此处可能存在不合适展示的内容,页面不予展示。您可通过相关编辑功能自查并修改。
如您确认内容无涉及 不当用语 / 纯广告导流 / 暴力 / 低俗色情 / 侵权 / 盗版 / 虚假 / 无价值内容或违法国家有关法律法规的内容,可点击提交进行申诉,我们将尽快为您处理。