捷徑

ChainedScheduler

class torch.optim.lr_scheduler.ChainedScheduler(schedulers, optimizer=None)[原始碼][原始碼]

串聯學習率排程器的清單。

接收可鏈接的學習率排程器序列,並在一次呼叫 step() 時,連續呼叫它們的 step() 函數。

參數
  • schedulers (序列) – 鏈接排程器的序列。

  • optimizer (Optimizer, optional) – 包裝的優化器。預設值:None。

範例

>>> # Assuming optimizer uses lr = 1. for all groups
>>> # lr = 0.09     if epoch == 0
>>> # lr = 0.081    if epoch == 1
>>> # lr = 0.729    if epoch == 2
>>> # lr = 0.6561   if epoch == 3
>>> # lr = 0.59049  if epoch >= 4
>>> scheduler1 = ConstantLR(optimizer, factor=0.1, total_iters=2)
>>> scheduler2 = ExponentialLR(optimizer, gamma=0.9)
>>> scheduler = ChainedScheduler([scheduler1, scheduler2], optimizer=optimizer)
>>> for epoch in range(100):
>>>     train(...)
>>>     validate(...)
>>>     scheduler.step()
get_last_lr()[原始碼]

傳回目前排程器計算的最後一個學習率。

回傳類型

List[float]

get_lr()[原始碼]

使用可鏈接的排程器形式計算學習率。

回傳類型

List[float]

load_state_dict(state_dict)[原始碼][原始碼]

載入排程器的狀態。

參數

state_dict (dict) – 排程器狀態。 應該是呼叫 state_dict() 後回傳的物件。

print_lr(is_verbose, group, lr, epoch=None)[原始碼]

顯示目前的學習率。

自 2.4 版已棄用: print_lr() 已棄用。 請使用 get_last_lr() 來存取學習率。

state_dict()[原始碼][原始碼]

dict 形式回傳排程器的狀態。

它包含 self.__dict__ 中每個不是最佳化器的變數的條目。 包裝的排程器狀態也會被儲存。

step()[原始碼][原始碼]

執行一個步驟。

文件

存取 PyTorch 的全面開發者文件

檢視文件

教學

取得初學者和進階開發人員的深入教學

檢視教學

資源

尋找開發資源並取得問題解答

檢視資源