快速鍵

SoftMarginLoss

class torch.nn.SoftMarginLoss(size_average=None, reduce=None, reduction='mean')[來源][來源]

建立一個標準,用以優化輸入張量 xx 和目標張量 yy (包含 1 或 -1) 之間的雙類別分類 Logistic 損失。

loss(x,y)=ilog(1+exp(y[i]x[i]))x.nelement()\text{loss}(x, y) = \sum_i \frac{\log(1 + \exp(-y[i]*x[i]))}{\text{x.nelement}()}
參數
  • size_average (bool, optional) – 已棄用 (請參閱 reduction)。 預設情況下,損失會在批次中的每個損失元素上進行平均。 請注意,對於某些損失,每個樣本有多個元素。 如果欄位 size_average 設定為 False,則會針對每個小批次將損失加總。 當 reduceFalse 時會忽略。 預設值: True

  • reduce (bool, optional) – 已棄用 (請參閱 reduction)。 預設情況下,損失會根據 size_average 在每個小批次的觀察值上進行平均或加總。 當 reduceFalse 時,會改為傳回每個批次元素的損失,並忽略 size_average。 預設值: True

  • reduction (str, optional) – 指定要套用至輸出的縮減方式: 'none' | 'mean' | 'sum''none':不套用任何縮減, 'mean':輸出總和將除以輸出中的元素數, 'sum':輸出將加總。 注意: size_averagereduce 正在逐步淘汰中,同時,指定這兩個參數中的任何一個都會覆寫 reduction。 預設值: 'mean'

形狀
  • 輸入: ()(*),其中 * 表示任意數量的維度。

  • 目標: ()(*),與輸入相同的形狀。

  • 輸出:純量。如果 reduction'none',則 ()(*), 形狀與輸入相同。

文件

取得 PyTorch 的完整開發者文件

檢視文件

教學課程

取得適合初學者和進階開發者的深入教學課程

檢視教學課程

資源

尋找開發資源並獲得問題解答

檢視資源