同步操作将从 OpenDocCN/pytorch-doc-zh 强制同步,此操作会覆盖自 Fork 仓库以来所做的任何修改,且无法恢复!!!
确定后同步将在后台操作,完成时将刷新页面,请耐心等待。
torch.nn.functional.conv1d(input, weight, bias=None, stride=1, padding=0, dilation=1, groups=1)
对几个输入平面组成的输入信号应用1D卷积。
有关详细信息和输出形状,请参见Conv1d
。
参数:
例子:
>>> filters = autograd.Variable(torch.randn(33, 16, 3))
>>> inputs = autograd.Variable(torch.randn(20, 16, 50))
>>> F.conv1d(inputs, filters)
torch.nn.functional.conv2d(input, weight, bias=None, stride=1, padding=0, dilation=1, groups=1)
对几个输入平面组成的输入信号应用2D卷积。
有关详细信息和输出形状,请参见Conv2d
。
参数:
例子:
>>> # With square kernels and equal stride
>>> filters = autograd.Variable(torch.randn(8,4,3,3))
>>> inputs = autograd.Variable(torch.randn(1,4,5,5))
>>> F.conv2d(inputs, filters, padding=1)
torch.nn.functional.conv3d(input, weight, bias=None, stride=1, padding=0, dilation=1, groups=1)
对几个输入平面组成的输入信号应用3D卷积。
有关详细信息和输出形状,请参见Conv3d
。
参数:
例子:
>>> filters = autograd.Variable(torch.randn(33, 16, 3, 3, 3))
>>> inputs = autograd.Variable(torch.randn(20, 16, 50, 10, 20))
>>> F.conv3d(inputs, filters)
torch.nn.functional.conv_transpose1d(input, weight, bias=None, stride=1, padding=0, output_padding=0, groups=1)
torch.nn.functional.conv_transpose2d(input, weight, bias=None, stride=1, padding=0, output_padding=0, groups=1)
在由几个输入平面组成的输入图像上应用二维转置卷积,有时也称为“去卷积”。
有关详细信息和输出形状,请参阅ConvTranspose2d
。
参数:
in_channels
应该被组数除尽torch.nn.functional.conv_transpose3d(input, weight, bias=None, stride=1, padding=0, output_padding=0, groups=1)
在由几个输入平面组成的输入图像上应用三维转置卷积,有时也称为“去卷积”。
有关详细信息和输出形状,请参阅ConvTranspose3d
。
参数:
torch.nn.functional.avg_pool1d(input, kernel_size, stride=None, padding=0, ceil_mode=False, count_include_pad=True)
对由几个输入平面组成的输入信号进行一维平均池化。
有关详细信息和输出形状,请参阅AvgPool1d
。
参数:
kernel_size
ceil
代替floor
来计算输出形状例子:
>>> # pool of square window of size=3, stride=2
>>> input = Variable(torch.Tensor([[[1,2,3,4,5,6,7]]]))
>>> F.avg_pool1d(input, kernel_size=3, stride=2)
Variable containing:
(0 ,.,.) =
2 4 6
[torch.FloatTensor of size 1x1x3]
torch.nn.functional.avg_pool2d(input, kernel_size, stride=None, padding=0, ceil_mode=False, count_include_pad=True)
在kh x kw区域中应用步长为dh x dw的二维平均池化操作。输出特征的数量等于输入平面的数量。
有关详细信息和输出形状,请参阅AvgPool2d
。
参数:
torch.nn.functional.avg_pool3d(input, kernel_size, stride=None)
在kt x kh x kw区域中应用步长为dt x dh x dw的二维平均池化操作。输出特征的数量等于 input planes / dt。
torch.nn.functional.max_pool1d(input, kernel_size, stride=None, padding=0, dilation=1, ceil_mode=False, return_indices=False)
torch.nn.functional.max_pool2d(input, kernel_size, stride=None, padding=0, dilation=1, ceil_mode=False, return_indices=False)
torch.nn.functional.max_pool3d(input, kernel_size, stride=None, padding=0, dilation=1, ceil_mode=False, return_indices=False)
torch.nn.functional.max_unpool1d(input, indices, kernel_size, stride=None, padding=0, output_size=None)
torch.nn.functional.max_unpool2d(input, indices, kernel_size, stride=None, padding=0, output_size=None)
torch.nn.functional.max_unpool3d(input, indices, kernel_size, stride=None, padding=0, output_size=None)
torch.nn.functional.lp_pool2d(input, norm_type, kernel_size, stride=None, ceil_mode=False)
torch.nn.functional.adaptive_max_pool1d(input, output_size, return_indices=False)
在由几个输入平面组成的输入信号上应用1D自适应最大池化。
有关详细信息和输出形状,请参阅AdaptiveMaxPool1d
。
参数:
torch.nn.functional.adaptive_max_pool2d(input, output_size, return_indices=False)
在由几个输入平面组成的输入信号上应用2D自适应最大池化。
有关详细信息和输出形状,请参阅AdaptiveMaxPool2d
。
参数:
torch.nn.functional.adaptive_avg_pool1d(input, output_size)
在由几个输入平面组成的输入信号上应用1D自适应平均池化。
有关详细信息和输出形状,请参阅AdaptiveAvgPool1d
。
参数:
torch.nn.functional.adaptive_avg_pool2d(input, output_size)
在由几个输入平面组成的输入信号上应用2D自适应平均池化。
有关详细信息和输出形状,请参阅AdaptiveAvgPool2d
。
参数:
torch.nn.functional.threshold(input, threshold, value, inplace=False)
torch.nn.functional.relu(input, inplace=False)
torch.nn.functional.hardtanh(input, min_val=-1.0, max_val=1.0, inplace=False)
torch.nn.functional.relu6(input, inplace=False)
torch.nn.functional.elu(input, alpha=1.0, inplace=False)
torch.nn.functional.leaky_relu(input, negative_slope=0.01, inplace=False)
torch.nn.functional.prelu(input, weight)
torch.nn.functional.rrelu(input, lower=0.125, upper=0.3333333333333333, training=False, inplace=False)
torch.nn.functional.logsigmoid(input)
torch.nn.functional.hardshrink(input, lambd=0.5)
torch.nn.functional.tanhshrink(input)
torch.nn.functional.softsign(input)
torch.nn.functional.softplus(input, beta=1, threshold=20)
torch.nn.functional.softmin(input)
torch.nn.functional.softmax(input)
torch.nn.functional.softshrink(input, lambd=0.5)
torch.nn.functional.log_softmax(input)
torch.nn.functional.tanh(input)
torch.nn.functional.sigmoid(input)
torch.nn.functional.batch_norm(input, running_mean, running_var, weight=None, bias=None, training=False, momentum=0.1, eps=1e-05)
torch.nn.functional.linear(input, weight, bias=None)
torch.nn.functional.dropout(input, p=0.5, training=False, inplace=False)
torch.nn.functional.pairwise_distance(x1, x2, p=2, eps=1e-06)
计算向量v1、v2之间的距离(成次或者成对,意思是可以计算多个,可以参看后面的参数) $$ \left | x \right |{p}:=\left ( \sum{i=1}^{N}\left | x_{i}^{p} \right | \right )^{1/p} $$ 参数:
规格:
例子:
>>> input1 = autograd.Variable(torch.randn(100, 128))
>>> input2 = autograd.Variable(torch.randn(100, 128))
>>> output = F.pairwise_distance(input1, input2, p=2)
>>> output.backward()
torch.nn.functional.nll_loss(input, target, weight=None, size_average=True)
负的log likelihood损失函数. 详细请看NLLLoss.
参数:
mini-batch
loss的平均值,然而,如果size_average=False,则是mini-batch
loss的总和。Variables:
torch.nn.functional.kl_div(input, target, size_average=True)
KL 散度损失函数,详细请看KLDivLoss
参数:
torch.nn.functional.cross_entropy(input, target, weight=None, size_average=True)
该函数使用了 log_softmax 和 nll_loss,详细请看CrossEntropyLoss
参数:
mini-batch
loss的平均值,然而,如果size_average=False,则是mini-batch
loss的总和。torch.nn.functional.binary_cross_entropy(input, target, weight=None, size_average=True)
该函数计算了输出与target之间的二进制交叉熵,详细请看BCELoss
参数:
mini-batch
loss的平均值,然而,如果size_average=False,则是mini-batch
loss的总和。torch.nn.functional.smooth_l1_loss(input, target, size_average=True)
将形状为[*, C*r^2, H, W]
的Tensor
重新排列成形状为[C, H*r, W*r]
的Tensor.
详细请看PixelShuffle.
形参说明:
例子:
ps = nn.PixelShuffle(3)
input = autograd.Variable(torch.Tensor(1, 9, 4, 4))
output = ps(input)
print(output.size())
torch.Size([1, 1, 12, 12])
填充Tensor
.
目前为止,只支持2D
和3D
填充.
Currently only 2D and 3D padding supported.
当输入为4D Tensor
的时候,pad
应该是一个4元素的tuple (pad_l, pad_r, pad_t, pad_b )
,当输入为5D Tensor
的时候,pad
应该是一个6元素的tuple (pleft, pright, ptop, pbottom, pfront, pback)
.
形参说明:
input (Variable) – 4D 或 5D tensor
pad (tuple) – 4元素 或 6-元素 tuple
mode – 'constant', 'reflect' or 'replicate'
value – 用于constant padding
的值.
此处可能存在不合适展示的内容,页面不予展示。您可通过相关编辑功能自查并修改。
如您确认内容无涉及 不当用语 / 纯广告导流 / 暴力 / 低俗色情 / 侵权 / 盗版 / 虚假 / 无价值内容或违法国家有关法律法规的内容,可点击提交进行申诉,我们将尽快为您处理。