CosineAnnealingLR¶
- class torch.optim.lr_scheduler.CosineAnnealingLR(optimizer, T_max, eta_min=0.0, last_epoch=-1, verbose='deprecated')[source][source]¶
使用餘弦退火排程來設定每個參數群組的學習率。
被設定為初始學習率,而 是自 SGDR 上次重新啟動以來的 epoch 數。
當 last_epoch=-1 時,將初始學習率設定為 lr。 請注意,由於排程是遞迴定義的,因此學習率可以同時被此排程器之外的其他運算符修改。 如果學習率僅由此排程器設定,則每個步驟的學習率變為:
它已在SGDR: Stochastic Gradient Descent with Warm Restarts中被提出。請注意,這僅實現了SGDR的餘弦退火部分,而不是重新啟動。
- 參數
- load_state_dict(state_dict)[原始碼]¶
載入排程器的狀態。
- 參數
state_dict (dict) – 排程器狀態。 應該是呼叫
state_dict()
後傳回的物件。