捷徑

torch.nn.utils.clip_grad_value_

torch.nn.utils.clip_grad_value_(parameters, clip_value, foreach=None)[原始碼][原始碼]

將一個參數迭代器中的梯度裁剪到指定的值。

梯度會被原地 (in-place) 修改。

參數
  • parameters (Iterable[Tensor] 或 Tensor) – 一個 Tensor 的迭代器或單個 Tensor,其梯度將被正規化

  • clip_value (float) – 梯度的最大允許值。梯度將被裁剪到範圍 [-clip_value,clip_value]\left[\text{-clip\_value}, \text{clip\_value}\right]

  • foreach (bool) – 使用更快的基於 foreach 的實作。如果 None,則對 CUDA 和 CPU 原生 tensor 使用 foreach 實作,並為其他裝置類型靜默地回退到較慢的實作。預設值: None

文件

存取 PyTorch 的完整開發者文件

檢視文件

教學

取得初學者和進階開發者的深入教學

檢視教學

資源

尋找開發資源並獲得您的問題解答

檢視資源