捷徑

SequentialLR

class torch.optim.lr_scheduler.SequentialLR(optimizer, schedulers, milestones, last_epoch=-1, verbose='deprecated')[來源][來源]

包含預期在優化過程中依序呼叫的排程器列表。

具體來說,排程器將根據里程碑點呼叫,這些里程碑點應提供確切的時間間隔,以在給定的 epoch 呼叫每個排程器。

參數
  • optimizer (Optimizer) – 包裝後的優化器。

  • schedulers (list) – 鏈式排程器的列表。

  • milestones (list) – 反映里程碑點的整數列表。

  • last_epoch (int) – 最後一個 epoch 的索引。預設值:-1。

  • verbose (bool | str) –

    沒有任何作用。

    Deprecated since version 2.2: verbose 已棄用。請使用 get_last_lr() 來存取學習率。

範例

>>> # Assuming optimizer uses lr = 1. for all groups
>>> # lr = 0.1     if epoch == 0
>>> # lr = 0.1     if epoch == 1
>>> # lr = 0.9     if epoch == 2
>>> # lr = 0.81    if epoch == 3
>>> # lr = 0.729   if epoch == 4
>>> scheduler1 = ConstantLR(optimizer, factor=0.1, total_iters=2)
>>> scheduler2 = ExponentialLR(optimizer, gamma=0.9)
>>> scheduler = SequentialLR(optimizer, schedulers=[scheduler1, scheduler2], milestones=[2])
>>> for epoch in range(100):
>>>     train(...)
>>>     validate(...)
>>>     scheduler.step()
get_last_lr()[source]

傳回目前排程器計算出的最後一個學習率。

傳回類型

List[float]

get_lr()[source]

使用排程器的可鏈式形式計算學習率。

傳回類型

List[float]

load_state_dict(state_dict)[source][source]

載入排程器的狀態。

參數

state_dict (dict) – 排程器狀態。應該是從呼叫 state_dict() 傳回的物件。

print_lr(is_verbose, group, lr, epoch=None)[source]

顯示目前的學習率。

Deprecated since version 2.4: print_lr() 已棄用。請使用 get_last_lr() 來存取學習率。

recursive_undo(sched=None)[source][source]

遞迴地撤銷由排程器的初始化執行的任何步驟。

state_dict()[source][source]

將排程器的狀態傳回為 dict

它包含 self.__dict__ 中每個變數的條目,該變數不是優化器。包裝後的排程器狀態也會儲存。

step()[source][source]

執行一個步驟。

文件

存取 PyTorch 的完整開發人員文件

檢視文件

教學

取得針對初學者和進階開發人員的深入教學

檢視教學

資源

尋找開發資源並取得問題的解答

檢視資源