2.6K Star 8.6K Fork 4.8K

GVPMindSpore/mindspore

加入 Gitee
与超过 1200万 开发者一起发现、参与优秀开源项目,私有仓库也完全免费 :)
免费加入
克隆/下载
mindspore.mint.nn.functional.log_softmax.rst 1.20 KB
一键复制 编辑 原始数据 按行查看 历史
吴大维 提交于 2024-08-28 19:31 . log_softmax, prelu bug fix

mindspore.mint.nn.functional.log_softmax

.. py:function:: mindspore.mint.nn.functional.log_softmax(input, dim=None, *, dtype=None)

    在指定轴上对输入Tensor应用LogSoftmax函数。假设在指定轴上, :math:`x` 对应每个元素 :math:`x_i` ,则LogSoftmax函数如下所示:

    .. math::
        \text{output}(x_i) = \log \left(\frac{\exp(x_i)} {\sum_{j = 0}^{N-1}\exp(x_j)}\right),

    其中, :math:`N` 为Tensor长度。

    参数:
        - **input** (Tensor) - 输入Tensor。
        - **dim** (int, 可选) - 指定进行Log softmax运算的轴。默认值: ``None`` 。

    关键字参数:
        - **dtype** (:class:`mindspore.dtype`, 可选) - 输出数据类型。如果不为None,则输入会转化为 `dtype`。这有利于防止数值溢出。
          如果为None,则输出和输入的数据类型一致。默认值: ``None`` 。支持的数据类型是{float16, float32, double, bfloat16}。

    返回:
        Tensor,和输入Tensor的shape相同。

    异常:
        - **TypeError** - 如果 `input` 不是Tensor。
        - **ValueError** - 如果 `dim` 超出范围[-len(input.shape), len(input.shape))。
马建仓 AI 助手
尝试更多
代码解读
代码找茬
代码优化
Python
1
https://gitee.com/mindspore/mindspore.git
git@gitee.com:mindspore/mindspore.git
mindspore
mindspore
mindspore
master

搜索帮助