LambdaLR¶
- class torch.optim.lr_scheduler.LambdaLR(optimizer, lr_lambda, last_epoch=-1, verbose='deprecated')[source][source]¶
設定初始學習率。
每個參數群組的學習率會設定為初始學習率乘以給定的函數值。當 last_epoch=-1 時,初始學習率會設定為 lr。
- 參數
範例
>>> # Assuming optimizer has two groups. >>> lambda1 = lambda epoch: epoch // 30 >>> lambda2 = lambda epoch: 0.95 ** epoch >>> scheduler = LambdaLR(optimizer, lr_lambda=[lambda1, lambda2]) >>> for epoch in range(100): >>> train(...) >>> validate(...) >>> scheduler.step()
- load_state_dict(state_dict)[來源][來源]¶
載入排程器的狀態。
在儲存或載入排程器時,請務必同時儲存或載入 optimizer 的狀態。
- 參數
state_dict (dict) – 排程器狀態。應為呼叫
state_dict()
所傳回的物件。
- print_lr(is_verbose, group, lr, epoch=None)[來源]¶
顯示目前的學習率。
自 2.4 版本起已棄用:
print_lr()
已棄用。請使用get_last_lr()
來存取學習率。