快捷鍵

TripletMarginLoss

class torch.nn.TripletMarginLoss(margin=1.0, p=2.0, eps=1e-06, swap=False, size_average=None, reduce=None, reduction='mean')[source][source]

建立一個準則,用於測量給定輸入張量 x1x1x2x2x3x3 以及一個邊界 (margin),其值大於 00 的 triplet loss。 這用於測量樣本之間的相對相似性。 一個 triplet 由 apn 組成(即分別為 anchorpositive examplesnegative examples)。 所有輸入張量的形狀應為 (N,D)(N, D)

距離交換 (distance swap) 在 V. Balntas、E. Riba 等人的論文 Learning shallow convolutional feature descriptors with triplet losses 中有詳細描述。

mini-batch 中每個樣本的損失函數為

L(a,p,n)=max{d(ai,pi)d(ai,ni)+margin,0}L(a, p, n) = \max \{d(a_i, p_i) - d(a_i, n_i) + {\rm margin}, 0\}

其中

d(xi,yi)=xiyipd(x_i, y_i) = \left\lVert {\bf x}_i - {\bf y}_i \right\rVert_p

此範數 (norm) 使用指定的 p 值計算,並加入一個小常數 ε\varepsilon 以確保數值穩定性。

另請參閱 TripletMarginWithDistanceLoss,它使用自定義距離函數計算輸入張量的 triplet margin loss。

參數
  • margin (float, optional) – 預設值: 11

  • p (int, optional) – 用於計算成對距離的範數次方。預設值: 22

  • eps (float, optional) – 用於數值穩定性的小常數。預設值: 1e61e-6

  • swap (bool, optional) – 距離交換 (distance swap) 在 V. Balntas、E. Riba 等人的論文 Learning shallow convolutional feature descriptors with triplet losses 中有詳細描述。預設值: False

  • size_average (bool, optional) – 已棄用 (請參閱 reduction)。預設情況下,損失會在批次中針對每個損失元素進行平均。請注意,對於某些損失,每個樣本有多個元素。如果欄位 size_average 設置為 False,則會針對每個小批次對損失求和。當 reduceFalse 時,此參數將被忽略。預設值: True

  • reduce (bool, optional) – 已棄用 (請參閱 reduction)。預設情況下,損失會根據 size_average 在每個小批次的觀測值上進行平均或求和。當 reduceFalse 時,會改為傳回每個批次元素的損失,並忽略 size_average。預設值: True

  • reduction (str, optional) – 指定要應用於輸出的縮減方式: 'none' | 'mean' | 'sum''none':不應用縮減,'mean':輸出總和將除以輸出中的元素數量,'sum':輸出將被求和。注意:size_averagereduce 正在棄用中,在此期間,指定這兩個參數中的任何一個都會覆蓋 reduction。預設值: 'mean'

形狀
  • 輸入:(N,D)(N, D)(D)(D),其中 DD 是向量維度。

  • 輸出:形狀為 (N)(N) 的張量,如果 reduction'none' 且輸入形狀為 (N,D)(N, D);否則為純量。

範例

>>> triplet_loss = nn.TripletMarginLoss(margin=1.0, p=2, eps=1e-7)
>>> anchor = torch.randn(100, 128, requires_grad=True)
>>> positive = torch.randn(100, 128, requires_grad=True)
>>> negative = torch.randn(100, 128, requires_grad=True)
>>> output = triplet_loss(anchor, positive, negative)
>>> output.backward()

文件

存取 PyTorch 的完整開發者文件

檢視文件

教學課程

取得適合初學者和進階開發者的深入教學課程

檢視教學課程

資源

尋找開發資源並獲得您的問題解答

檢視資源