335 Star 1.5K Fork 861

MindSpore / docs

加入 Gitee
与超过 1200万 开发者一起发现、参与优秀开源项目,私有仓库也完全免费 :)
免费加入
克隆/下载
SmoothL1Loss.md 2.39 KB
一键复制 编辑 原始数据 按行查看 历史

比较与torch.nn.SmoothL1Loss的功能差异

torch.nn.SmoothL1Loss

class torch.nn.SmoothL1Loss(size_average=None, reduce=None, reduction='mean', beta=1.0)(input, target) -> Tensor

更多内容详见torch.nn.SmoothL1Loss

mindspore.nn.SmoothL1Loss

class mindspore.nn.SmoothL1Loss(beta=1.0, reduction='none')(logits, labels) -> Tensor

更多内容详见mindspore.nn.SmoothL1Loss

差异对比

PyTorch:SmoothL1Loss损失函数,如果预测值和目标值的逐个元素绝对误差小于设定阈值beta则用平方项,否则用绝对误差项。

MindSpore:除两个在PyTorch已弃用的参数不同外,功能上无差异。

分类 子类 PyTorch MindSpore 差异
参数 参数1 size_average - 已弃用,被reduction取代,MindSpore无此参数
参数2 reduce - 已弃用,被reduction取代,MindSpore无此参数
参数3 reduction reduction 功能一致,默认值不同
参数4 beta beta -
输入 输入1 input logits 功能一致,参数名不同
输入2 target labels 功能一致,参数名不同

代码示例

两API实现功能一致,用法相同。

# PyTorch
import torch
import torch.nn as nn

beta = 1
loss = nn.SmoothL1Loss(reduction="none", beta=beta)
logits = torch.FloatTensor([1, 2, 3])
labels = torch.FloatTensor([1, 2, 2])
output = loss(logits, labels)
print(output.numpy())
# [0.  0.  0.5]

# MindSpore
import mindspore
import numpy as np
from mindspore import Tensor

loss = mindspore.nn.SmoothL1Loss()
logits = Tensor(np.array([1, 2, 3]), mindspore.float32)
labels = Tensor(np.array([1, 2, 2]), mindspore.float32)
output = loss(logits, labels)
print(output)
# [0.  0.  0.5]
1
https://gitee.com/mindspore/docs.git
git@gitee.com:mindspore/docs.git
mindspore
docs
docs
r2.0.0-alpha

搜索帮助