torch.nn.functional¶
卷積函數¶
將 1D 卷積應用於由多個輸入平面組成的輸入訊號。 |
|
將 2D 卷積應用於由多個輸入平面組成的輸入圖像。 |
|
將 3D 卷積應用於由多個輸入平面組成的輸入圖像。 |
|
將 1D 轉置卷積運算符應用於由多個輸入平面組成的輸入訊號,有時也稱為「反卷積」。 |
|
將 2D 轉置卷積運算符應用於由多個輸入平面組成的輸入圖像,有時也稱為「反卷積」。 |
|
將 3D 轉置卷積運算符應用於由多個輸入平面組成的輸入圖像,有時也稱為「反卷積」。 |
|
從批次輸入張量中提取滑動局部區塊。 |
|
將滑動局部區塊的陣列組合到一個大的包含張量中。 |
池化函數¶
將 1D 平均池化應用於由多個輸入平面組成的輸入訊號。 |
|
在 區域上應用 2D 平均池化操作,步長為 。 |
|
在 區域上應用 3D 平均池化操作,步長為 。 |
|
對由多個輸入平面組成的輸入訊號應用 1D 最大池化。 |
|
對由多個輸入平面組成的輸入訊號應用 2D 最大池化。 |
|
對由多個輸入平面組成的輸入訊號應用 3D 最大池化。 |
|
計算 |
|
計算 |
|
計算 |
|
對由多個輸入平面組成的輸入訊號應用 1D 幂平均池化。 |
|
對由多個輸入平面組成的輸入訊號應用 2D 幂平均池化。 |
|
對由多個輸入平面組成的輸入訊號應用 3D 幂平均池化。 |
|
對由多個輸入平面組成的輸入訊號應用 1D 自適應最大池化。 |
|
對由多個輸入平面組成的輸入訊號應用 2D 自適應最大池化。 |
|
對由多個輸入平面組成的輸入訊號應用 3D 自適應最大池化。 |
|
對由多個輸入平面組成的輸入訊號應用 1D 自適應平均池化。 |
|
對由多個輸入平面組成的輸入訊號應用 2D 自適應平均池化。 |
|
對由多個輸入平面組成的輸入訊號應用 3D 自適應平均池化。 |
|
對由多個輸入平面組成的輸入訊號應用 2D 分數最大池化。 |
|
對由多個輸入平面組成的輸入訊號應用 3D 分數最大池化。 |
注意力機制¶
torch.nn.attention.bias
模組包含設計用於 scaled_dot_product_attention 的 attention_biases。
scaled_dot_product_attention(query, key, value, attn_mask=None, dropout_p=0.0, |
非線性激活函數¶
將閾值應用於輸入 Tensor 的每個元素。 |
|
|
|
逐元素應用修正線性單元函數。 |
|
|
|
逐元素應用 HardTanh 函數。 |
|
|
|
逐元素應用 hardswish 函數。 |
|
逐元素應用函數 。 |
|
逐元素應用指數線性單元 (ELU) 函數。 |
|
原地 (In-place) 版本的 |
|
逐元素 (element-wise) 應用 ,其中 且 。 |
|
逐元素 (element-wise) 應用 。 |
|
逐元素 (element-wise) 應用 |
|
原地 (In-place) 版本的 |
|
逐元素套用函數 ,其中 weight 是一個可學習的參數。 |
|
隨機修正線性單元 (Randomized leaky ReLU)。 |
|
原地 (In-place) 版本的 |
|
門控線性單元 (The gated linear unit)。 |
|
當 approximate 引數為 'none' 時,它會逐元素套用函數 |
|
逐元素套用 |
|
逐元素套用硬收縮函數 (hard shrinkage function) |
|
逐元素套用, |
|
逐元素套用函數 。 |
|
逐元素套用函數 。 |
|
套用 softmin 函數。 |
|
套用 softmax 函數。 |
|
逐元素套用 soft shrinkage 函數 |
|
套用 softmax 後接 logarithm。 |
|
逐元素套用, |
|
對每個元素應用 Sigmoid 函數 |
|
對每個元素應用 Hardsigmoid 函數。 |
|
對每個元素應用 Sigmoid Linear Unit (SiLU) 函數。 |
|
對每個元素應用 Mish 函數。 |
|
對一批資料的每個通道應用批次正規化 (Batch Normalization)。 |
|
對最後幾個維度應用群組正規化 (Group Normalization)。 |
|
在批次中的每個資料樣本中,對每個通道獨立應用實例正規化 (Instance Normalization)。 |
|
對最後幾個維度應用層正規化 (Layer Normalization)。 |
|
對輸入訊號應用局部響應正規化 (local response normalization)。 |
|
應用均方根層正規化 (Root Mean Square Layer Normalization)。 |
|
在指定維度上執行輸入的 正規化。 |
Dropout 函數¶
在訓練期間,以機率 |
|
將 alpha dropout 應用於輸入。 |
|
隨機遮罩整個通道(一個通道是一個特徵圖)。 |
|
隨機將整個通道歸零(一個通道是一個 1D 特徵圖)。 |
|
隨機將整個通道歸零(一個通道是一個 2D 特徵圖)。 |
|
隨機將整個通道歸零(一個通道是一個 3D 特徵圖)。 |
稀疏函數¶
產生一個簡單的查詢表,用於在固定的字典和大小中查找嵌入向量。 |
|
計算嵌入 bags 的總和、平均值或最大值。 |
|
接受形狀為 |
距離函數¶
返回 |
|
計算輸入中每對 row 向量之間的 p-norm 距離。 |
損失函數¶
衡量目標和輸入機率之間的 Binary Cross Entropy(二元交叉熵)。 |
|
計算目標和輸入 logits 之間的 Binary Cross Entropy(二元交叉熵)。 |
|
Poisson 負對數概似損失。 |
|
詳情請參閱 |
|
計算輸入 logits 和目標之間的交叉熵損失。 |
|
應用 Connectionist Temporal Classification(連接主義時間分類)損失。 |
|
Gaussian 負對數概似損失。 |
|
詳情請參閱 |
|
計算 KL Divergence(KL 散度)損失。 |
|
計算元素級絕對值差的均值的函數。 |
|
衡量元素級均方誤差,可選擇加權。 |
|
詳情請參閱 |
|
詳情請參閱 |
|
詳情請參閱 |
|
詳情請參閱 |
|
計算負對數概似損失。 |
|
計算 Huber 損失,可選擇加權。 |
|
計算 Smooth L1 損失。 |
|
詳情請參閱 |
|
計算給定輸入張量和一個大於 0 的邊距之間的 triplet 損失。 |
|
使用自定義距離函數計算輸入張量的 triplet margin 損失。 |
視覺函數¶
將形狀為 的張量重新排列為形狀為 的張量,其中 r 是 |
|
透過重新排列形狀為 的張量中的元素,反轉 |
|
填充張量。 |
|
對輸入進行降採樣/升採樣。 |
|
對輸入進行升採樣。 |
|
使用最近鄰的像素值對輸入進行升採樣。 |
|
使用雙線性升採樣對輸入進行升採樣。 |
|
計算網格採樣。 |
|
給定一批仿射矩陣 |