捷徑

Softmax

class torch.nn.Softmax(dim=None)[原始碼][原始碼]

將 Softmax 函數應用於 n 維輸入張量。

重新調整它們,使 n 維輸出張量的元素位於 [0,1] 範圍內,並且總和為 1。

Softmax 定義為

Softmax(xi)=exp(xi)jexp(xj)\text{Softmax}(x_{i}) = \frac{\exp(x_i)}{\sum_j \exp(x_j)}

當輸入張量是稀疏張量時,未指定的值將被視為 -inf

形狀
  • 輸入: ()(*) 其中 * 表示任意數量的額外維度

  • 輸出: ()(*),與輸入相同的形狀

回傳

一個與輸入具有相同維度和形狀的張量,其值在 [0, 1] 範圍內

參數

dim (int) – 將計算 Softmax 的維度(因此沿 dim 的每個切片的總和將為 1)。

回傳類型

None

注意

此模組無法直接與 NLLLoss 搭配使用,NLLLoss 期望在 Softmax 和其自身之間計算 Log。請改用 LogSoftmax(它更快且具有更好的數值屬性)。

範例

>>> m = nn.Softmax(dim=1)
>>> input = torch.randn(2, 3)
>>> output = m(input)

文件

存取 PyTorch 的全面開發者文件

檢視文件

教學

取得針對初學者和進階開發者的深度教學

檢視教學

資源

尋找開發資源並獲得問題解答

檢視資源