快捷方式

MultiMarginLoss

class torch.nn.MultiMarginLoss(p=1, margin=1.0, weight=None, size_average=None, reduce=None, reduction='mean')[source][source]

建立一個標準,該標準優化輸入 xx (一個 2D mini-batch Tensor) 和輸出 yy (它是目標類別索引的 1D 張量,0yx.size(1)10 \leq y \leq \text{x.size}(1)-1) 之間的多類分類 hinge loss(基於 margin 的 loss)。

對於每個 mini-batch 樣本,就 1D 輸入 xx 和純量輸出 yy 而言,loss 為

loss(x,y)=imax(0,marginx[y]+x[i])px.size(0)\text{loss}(x, y) = \frac{\sum_i \max(0, \text{margin} - x[y] + x[i])^p}{\text{x.size}(0)}

其中 i{0,  ,  x.size(0)1}i \in \left\{0, \; \cdots , \; \text{x.size}(0) - 1\right\}iyi \neq y

您可以選擇性地透過傳遞 1D weight 張量到建構子中,來給予各類別不同的權重。

則損失函數會變成

loss(x,y)=iw[y]max(0,marginx[y]+x[i])px.size(0)\text{loss}(x, y) = \frac{\sum_i w[y] * \max(0, \text{margin} - x[y] + x[i])^p}{\text{x.size}(0)}
參數
  • p (int, optional) – 預設值為 111122 是唯一支援的值。

  • margin (float, optional) – 預設值為 11

  • weight (Tensor, optional) – 手動調整每個類別的權重。如果提供,則必須是大小為 C 的 Tensor。否則,將視為全部為 1。

  • size_average (bool, optional) – 已棄用(請參閱 reduction)。預設情況下,損失會在批次中的每個損失元素上取平均值。請注意,對於某些損失,每個樣本有多個元素。如果欄位 size_average 設定為 False,則會改為將每個小批次的損失加總。當 reduceFalse 時會被忽略。預設值:True

  • reduce (bool, optional) – 已棄用 (請參閱 reduction)。預設情況下,損失會根據 size_average 的值,針對每個小批次在觀察值上進行平均或加總。當 reduceFalse 時,會傳回每個批次元素的損失,並忽略 size_average。預設值:True

  • reduction (str, optional) – 指定要應用於輸出的縮減方式:'none' | 'mean' | 'sum''none':不應用任何縮減,'mean':輸出總和將除以輸出中的元素數量,'sum':輸出將被加總。請注意:size_averagereduce 正在逐步棄用,在此期間,指定這兩個參數中的任何一個都會覆蓋 reduction。預設值:'mean'

形狀 (Shape)
  • 輸入:(N,C)(N, C)(C)(C),其中 NN 是批次大小,而 CC 是類別數量。

  • 目標:(N)(N)()(),其中每個值都是 0targets[i]C10 \leq \text{targets}[i] \leq C-1

  • 輸出:純量。如果 reduction'none',則與目標的形狀相同。

範例

>>> loss = nn.MultiMarginLoss()
>>> x = torch.tensor([[0.1, 0.2, 0.4, 0.8]])
>>> y = torch.tensor([3])
>>> # 0.25 * ((1-(0.8-0.1)) + (1-(0.8-0.2)) + (1-(0.8-0.4)))
>>> loss(x, y)
tensor(0.32...)

文件

取得 PyTorch 的完整開發者文件

檢視文件

教學

取得適合初學者和進階開發人員的深入教學課程

檢視教學

資源

尋找開發資源並取得問題解答

檢視資源