快捷方式

ConvTranspose3d

class torch.nn.ConvTranspose3d(in_channels, out_channels, kernel_size, stride=1, padding=0, output_padding=0, groups=1, bias=True, dilation=1, padding_mode='zeros', device=None, dtype=None)[source][source]

對由多個輸入平面組成的輸入影像應用 3D 轉置卷積運算子。轉置卷積運算子將每個輸入值與一個可學習的核心逐元素相乘,並對來自所有輸入特徵平面的輸出進行求和。

此模組可以看作是 Conv3d 相對於其輸入的梯度。 它也被稱為部分步幅卷積或反卷積(儘管它不是實際的反卷積運算,因為它不計算卷積的真正逆運算)。 欲了解更多資訊,請參閱此處的可視化和 反卷積網路論文。

此模組支援 TensorFloat32

在某些 ROCm 裝置上,當使用 float16 輸入時,此模組將使用 不同的精度 進行反向傳播。

  • stride 控制互相關的步幅。

  • padding 控制 dilation * (kernel_size - 1) - padding 個點的雙邊隱式零填充量。 詳情請參閱以下註釋。

  • output_padding 控制添加到輸出形狀一側的額外大小。 詳情請參閱以下註釋。

  • dilation 控制核心點之間的間距; 也稱為 à trous 演算法。 它很難描述,但 此處的連結很好地視覺化了 dilation 的作用。

  • groups 控制輸入和輸出之間的連接。 in_channelsout_channels 都必須能被 groups 整除。 例如,

    • 在 groups=1 時,所有輸入都卷積到所有輸出。

    • 在 groups=2 時,此運算相當於並排放置兩個卷積層,每個卷積層看到一半的輸入通道並產生一半的輸出通道,然後將兩者串聯起來。

    • 在 groups= in_channels 時,每個輸入通道都與其自身的一組濾波器(大小為 out_channelsin_channels\frac{\text{out\_channels}}{\text{in\_channels}})卷積。

參數 kernel_sizestridepaddingoutput_padding 可以是:

  • 單個 int – 在這種情況下,相同的值用於深度、高度和寬度維度

  • 三個 inttuple – 在這種情況下,第一個 int 用於深度維度,第二個 int 用於高度維度,第三個 int 用於寬度維度

注意

padding 參數實際上會在輸入的每個維度兩側增加 dilation * (kernel_size - 1) - padding 數量的零填充。 這樣的設定是為了讓使用相同參數初始化的 Conv3dConvTranspose3d 在輸入和輸出形狀方面互為逆運算。 然而,當 stride > 1 時,Conv3d 會將多個輸入形狀映射到相同的輸出形狀。 提供 output_padding 旨在通過有效地增加一側的計算輸出形狀來解決此歧義。 請注意,output_padding 僅用於查找輸出形狀,但實際上並不會向輸出添加零填充。

注意

在某些情況下,當在 CUDA 設備上提供張量並使用 CuDNN 時,此運算符可能會選擇一種非確定性的演算法來提高效能。 如果不希望這樣,您可以嘗試通過設定 torch.backends.cudnn.deterministic = True 使操作具有確定性(可能會以效能為代價)。 有關更多訊息,請參閱 再現性

參數
  • in_channels (int) – 輸入圖像中的通道數

  • out_channels (int) – 卷積產生的通道數

  • kernel_size (inttuple) – 卷積核的大小

  • stride (inttuple, optional) – 卷積的步幅。預設值:1

  • padding (inttuple, optional) – dilation * (kernel_size - 1) - padding 零填充將會加到輸入的每個維度的兩側。 預設值:0

  • output_padding (inttuple, optional) – 添加到輸出形狀的每個維度一側的額外大小。 預設值:0

  • groups (int, optional) – 從輸入通道到輸出通道的阻塞連接數。 預設值:1

  • bias (bool, optional) – 如果為 True,則向輸出添加可學習的偏差。 預設值:True

  • dilation (inttuple, optional) – 核心元素之間的間距。 預設值:1

形狀
  • 輸入:(N,Cin,Din,Hin,Win)(N, C_{in}, D_{in}, H_{in}, W_{in})(Cin,Din,Hin,Win)(C_{in}, D_{in}, H_{in}, W_{in})

  • 輸出: (N,Cout,Dout,Hout,Wout)(N, C_{out}, D_{out}, H_{out}, W_{out})(Cout,Dout,Hout,Wout)(C_{out}, D_{out}, H_{out}, W_{out}),其中

輸出維度 = (輸入維度 - 1) × 步幅[0] - 2 × 填充[0] + 膨脹[0] × (核心大小[0] - 1) + 輸出填充[0] + 1
輸出高度 = (輸入高度 - 1) × 步幅[1] - 2 × 填充[1] + 膨脹[1] × (核心大小[1] - 1) + 輸出填充[1] + 1
Wout=(Win1)×stride[2]2×padding[2]+dilation[2]×(kernel_size[2]1)+output_padding[2]+1W_{out} = (W_{in} - 1) \times \text{stride}[2] - 2 \times \text{padding}[2] + \text{dilation}[2] \times (\text{kernel\_size}[2] - 1) + \text{output\_padding}[2] + 1
變數
  • weight (權重) (Tensor) – 模組中可學習的權重,形狀為 (in_channels,out_channelsgroups,(\text{in\_channels}, \frac{\text{out\_channels}}{\text{groups}}, kernel_size[0],kernel_size[1],kernel_size[2])\text{kernel\_size[0]}, \text{kernel\_size[1]}, \text{kernel\_size[2]})。 這些權重的值取樣自 U(k,k)\mathcal{U}(-\sqrt{k}, \sqrt{k}),其中 k=groupsCouti=02kernel_size[i]k = \frac{groups}{C_\text{out} * \prod_{i=0}^{2}\text{kernel\_size}[i]}

  • bias (Tensor) – 模組的可學習偏差,形狀為 (out_channels)。如果 biasTrue,則這些權重的值會從 U(k,k)\mathcal{U}(-\sqrt{k}, \sqrt{k}) 中採樣,其中 k=groupsCouti=02kernel_size[i]k = \frac{groups}{C_\text{out} * \prod_{i=0}^{2}\text{kernel\_size}[i]}

範例

>>> # With square kernels and equal stride
>>> m = nn.ConvTranspose3d(16, 33, 3, stride=2)
>>> # non-square kernels and unequal stride and with padding
>>> m = nn.ConvTranspose3d(16, 33, (3, 5, 2), stride=(2, 1, 1), padding=(0, 4, 2))
>>> input = torch.randn(20, 16, 10, 50, 100)
>>> output = m(input)

文件

取得 PyTorch 的完整開發者文件

檢視文件

教學

取得針對初學者和進階開發者的深入教學課程

檢視教學

資源

尋找開發資源並取得問題解答

檢視資源