捷徑

ExponentialLR

class torch.optim.lr_scheduler.ExponentialLR(optimizer, gamma, last_epoch=-1, verbose='deprecated')[原始碼][原始碼]

每個 epoch 將每個參數群組的學習率以 gamma 衰減。

當 last_epoch=-1 時,將初始 lr 設定為 lr。

參數
  • optimizer (Optimizer) – 包裝的優化器。

  • gamma (float) – 學習率衰減的乘法因子。

  • last_epoch (int) – 最後一個 epoch 的索引。預設值:-1。

  • verbose (bool | str) –

    如果 True,則為每個更新印出一條訊息到 stdout。預設值:False

    自 2.2 版本起已棄用:verbose 已棄用。請使用 get_last_lr() 來存取學習率。

get_last_lr()[來源]

傳回目前 scheduler 計算出的最後一個學習率。

傳回類型

List[float]

get_lr()[來源][來源]

計算每個參數群組的學習率。

load_state_dict(state_dict)[來源]

載入 scheduler 的狀態。

參數

state_dict (dict) – scheduler 狀態。應該是從呼叫 state_dict() 傳回的物件。

print_lr(is_verbose, group, lr, epoch=None)[來源]

顯示當前的學習率。

自 2.4 版本起已棄用:print_lr() 已棄用。請使用 get_last_lr() 來存取學習率。

state_dict()[來源]

將 scheduler 的狀態傳回為 dict

它包含 self.__dict__ 中每個不是 optimizer 的變數的條目。

step(epoch=None)[來源]

執行一步。

文件

存取 PyTorch 的完整開發人員文件

檢視文件

教學

取得初學者和進階開發人員的深入教學

檢視教學

資源

尋找開發資源並獲得問題解答

檢視資源