捷徑

torch.optim.Optimizer.register_step_pre_hook

Optimizer.register_step_pre_hook(hook)[來源][來源]

註冊一個 optimizer step pre hook,它將在 optimizer step 之前被呼叫。

它應該具有以下簽名:

hook(optimizer, args, kwargs) -> None or modified args and kwargs

optimizer 參數是被使用的 optimizer 實例。如果 args 和 kwargs 被 pre-hook 修改,則轉換後的值將作為包含 new_args 和 new_kwargs 的元組返回。

參數

hook (Callable) – 要註冊的使用者定義 hook。

傳回

一個 handle,可用於透過呼叫 handle.remove() 來移除新增的 hook

傳回類型

torch.utils.hooks.RemovableHandle

文件

存取 PyTorch 的完整開發者文件

查看文件

教學

取得針對初學者和進階開發者的深入教學

查看教學

資源

尋找開發資源並獲得問題解答

查看資源