RNNTLoss¶
- class torchaudio.transforms.RNNTLoss(blank: int = -1, clamp: float = -1.0, reduction: str = 'mean', fused_log_softmax: bool = True)[原始碼]¶
從使用遞迴神經網路的序列轉錄 [[Graves, 2012](../references.html#id18)] 計算 RNN Transducer 損失。
RNN Transducer 損失透過定義所有長度的輸出序列的分佈,並聯合建模輸入-輸出和輸出-輸出依賴關係,來擴展 CTC 損失。
- 參數:
- 範例
>>> # Hypothetical values >>> logits = torch.tensor([[[[0.1, 0.6, 0.1, 0.1, 0.1], >>> [0.1, 0.1, 0.6, 0.1, 0.1], >>> [0.1, 0.1, 0.2, 0.8, 0.1]], >>> [[0.1, 0.6, 0.1, 0.1, 0.1], >>> [0.1, 0.1, 0.2, 0.1, 0.1], >>> [0.7, 0.1, 0.2, 0.1, 0.1]]]], >>> dtype=torch.float32, >>> requires_grad=True) >>> targets = torch.tensor([[1, 2]], dtype=torch.int) >>> logit_lengths = torch.tensor([2], dtype=torch.int) >>> target_lengths = torch.tensor([2], dtype=torch.int) >>> transform = transforms.RNNTLoss(blank=0) >>> loss = transform(logits, targets, logit_lengths, target_lengths) >>> loss.backward()
- forward(logits: Tensor, targets: Tensor, logit_lengths: Tensor, target_lengths: Tensor)[原始碼]¶
- 參數:
logits (Tensor) – 維度為 (batch, max seq length, max target length + 1, class) 的 Tensor,包含來自 joiner 的輸出
targets (Tensor) – 維度為 (batch, max target length) 的 Tensor,包含以零填充的目標
logit_lengths (Tensor) – 維度為 (batch) 的 Tensor,包含來自編碼器的每個序列的長度
target_lengths (Tensor) – 維度為 (batch) 的 Tensor,包含每個序列的目標長度
- 回傳:
套用縮減選項的損失。如果
reduction
為"none"
,則大小為 (batch),否則為純量。- 回傳類型:
Tensor