代码拉取完成,页面将自动刷新
.. py:function:: mindspore.ops.prelu(input, weight) 带参数的线性修正单元激活函数(Parametric Rectified Linear Unit activation function)。 `Delving Deep into Rectifiers:Surpassing Human-Level Performance on ImageNet Classification <https://arxiv.org/abs/1502.01852>`_ 描述了PReLU激活函数。定义如下: .. math:: prelu(x_i)= \max(0, x_i) + \min(0, w * x_i), 其中 :math:`x_i` 是输入的一个通道的一个元素,`w` 是通道权重。 PReLU函数图: .. image:: ../images/PReLU2.png :align: center .. note:: 通道数是输入的第二个维度值。当输入的维度小于2时,则没有通道维度并且通道数等于1。 参数: - **input** (Tensor) - 激活函数的输入Tensor。 - **weight** (Tensor) - 权重Tensor。它的大小是1或者输入Tensor `input` 的通道数。 返回: Tensor,其shape和数据类型与 `input` 相同。 有关详细信息,请参考 :class:`mindspore.mint.nn.PReLU` 。 异常: - **TypeError** - `input` 或 `weight` 不是Tensor。 - **ValueError** - `weight` 不是0-D或1-DTensor。
此处可能存在不合适展示的内容,页面不予展示。您可通过相关编辑功能自查并修改。
如您确认内容无涉及 不当用语 / 纯广告导流 / 暴力 / 低俗色情 / 侵权 / 盗版 / 虚假 / 无价值内容或违法国家有关法律法规的内容,可点击提交进行申诉,我们将尽快为您处理。