捷徑

MultiLabelMarginLoss

class torch.nn.MultiLabelMarginLoss(size_average=None, reduce=None, reduction='mean')[原始碼][原始碼]

建立一個準則,用於最佳化輸入 xx(2D 小批次 Tensor)和輸出 yy(它是目標類別索引的 2D Tensor)之間的多類別多分類 hinge loss(基於邊界的 loss)。對於小批次中的每個樣本

其中 x{0,  ,  x.size(0)1}x \in \left\{0, \; \cdots , \; \text{x.size}(0) - 1\right\}, y{0,  ,  y.size(0)1}y \in \left\{0, \; \cdots , \; \text{y.size}(0) - 1\right\}, 0y[j]x.size(0)10 \leq y[j] \leq \text{x.size}(0)-1, 且對於所有的 iijj, iy[j]i \neq y[j]

yyxx 必須具有相同的大小。

此標準僅考慮從前面開始的連續非負目標區塊。

這允許不同的樣本具有不同數量的目標類別。

參數
  • size_average (bool, optional) – 已棄用(請參閱 reduction)。預設情況下,損失會針對批次中的每個損失元素進行平均。 請注意,對於某些損失,每個樣本有多個元素。如果將欄位 size_average 設為 False,則會改為針對每個小批次對損失求和。 當 reduceFalse 時,會忽略此欄位。 預設值:True

  • reduce (bool, optional) – 已棄用(請參閱 reduction)。預設情況下,根據 size_average,損失會針對每個小批次的觀察值進行平均或求和。當 reduceFalse 時,會改為傳回每個批次元素的損失,並忽略 size_average。預設值:True

  • reduction (str, 可選) – 指定要應用於輸出的 reduction 方式:'none' | 'mean' | 'sum''none':不應用任何 reduction,'mean':輸出的總和將除以輸出中的元素數量,'sum':輸出將被加總。注意:size_averagereduce 正在被棄用,在此期間,指定這兩個參數中的任何一個都將覆蓋 reduction。預設值:'mean'

形狀 (Shape)
  • 輸入 (Input): (C)(C)(N,C)(N, C),其中 N 是批次大小,C 是類別數量。

  • 目標 (Target): (C)(C)(N,C)(N, C),標籤目標用 -1 填充,以確保與輸入形狀相同。

  • 輸出 (Output): 純量。如果 reduction'none',則為 (N)(N)

範例 (Examples)

>>> loss = nn.MultiLabelMarginLoss()
>>> x = torch.FloatTensor([[0.1, 0.2, 0.4, 0.8]])
>>> # for target y, only consider labels 3 and 0, not after label -1
>>> y = torch.LongTensor([[3, 0, -1, 1]])
>>> # 0.25 * ((1-(0.1-0.2)) + (1-(0.1-0.4)) + (1-(0.8-0.2)) + (1-(0.8-0.4)))
>>> loss(x, y)
tensor(0.85...)

文件

取得 PyTorch 的完整開發者文件

檢視文件

教學課程

取得適合初學者和進階開發人員的深入教學課程

檢視教學課程

資源

尋找開發資源並獲得問題解答

檢視資源