快捷鍵

LambdaLR

class torch.optim.lr_scheduler.LambdaLR(optimizer, lr_lambda, last_epoch=-1, verbose='deprecated')[source][source]

設定初始學習率。

每個參數群組的學習率會設定為初始學習率乘以給定的函數值。當 last_epoch=-1 時,初始學習率會設定為 lr。

參數
  • optimizer (Optimizer) – 已封裝的 optimizer。

  • lr_lambda (functionlist) – 一個函數,用於計算給定整數參數 epoch 的乘法因子,或者是一個此類函數的列表,每個函數對應於 optimizer.param_groups 中的一個群組。

  • last_epoch (int) – 上一個 epoch 的索引。預設值:-1。

  • verbose (bool | str) –

    如果 True,則為每次更新向 stdout 列印訊息。預設值:False

    自 2.2 版本起已棄用:verbose 已棄用。請使用 get_last_lr() 來存取學習率。

範例

>>> # Assuming optimizer has two groups.
>>> lambda1 = lambda epoch: epoch // 30
>>> lambda2 = lambda epoch: 0.95 ** epoch
>>> scheduler = LambdaLR(optimizer, lr_lambda=[lambda1, lambda2])
>>> for epoch in range(100):
>>>     train(...)
>>>     validate(...)
>>>     scheduler.step()
get_last_lr()[來源]

傳回目前排程器計算的最後一個學習率。

傳回類型

List[float]

get_lr()[來源][來源]

計算學習率。

load_state_dict(state_dict)[來源][來源]

載入排程器的狀態。

在儲存或載入排程器時,請務必同時儲存或載入 optimizer 的狀態。

參數

state_dict (dict) – 排程器狀態。應為呼叫 state_dict() 所傳回的物件。

print_lr(is_verbose, group, lr, epoch=None)[來源]

顯示目前的學習率。

自 2.4 版本起已棄用:print_lr() 已棄用。請使用 get_last_lr() 來存取學習率。

state_dict()[來源][來源]

將排程器的狀態作為 dict 傳回。

它包含 self.__dict__ 中每個變數的項目,但 optimizer 除外。 只有在學習率 lambda 函數是可呼叫的物件而不是函數或 lambda 時,才會儲存它們。

在儲存或載入排程器時,請務必同時儲存或載入 optimizer 的狀態。

step(epoch=None)[來源]

執行一步。

文件

存取 PyTorch 的完整開發人員文件

檢視文件

教學

取得針對初學者和進階開發人員的深入教學

檢視教學

資源

尋找開發資源並取得問題解答

檢視資源