捷徑

LRScheduler

class torch.optim.lr_scheduler.LRScheduler(optimizer, last_epoch=-1, verbose='deprecated')[來源][來源]

調整最佳化期間的學習速率。

get_last_lr()[來源][來源]

傳回目前排程器所計算的最後一個學習率。

回傳類型

List[float]

get_lr()[source][source]

使用可鏈式形式的排程器計算學習率。

回傳類型

List[float]

load_state_dict(state_dict)[source][source]

載入排程器的狀態。

參數

state_dict (dict) – 排程器狀態。 應為呼叫 state_dict() 所回傳的物件。

print_lr(is_verbose, group, lr, epoch=None)[source][source]

顯示目前的學習率。

自 2.4 版已棄用: print_lr() 已棄用。 請使用 get_last_lr() 來存取學習率。

state_dict()[source][source]

dict 形式傳回排程器的狀態。

它包含 self.__dict__ 中每個變數的條目,但優化器除外。

step(epoch=None)[source][source]

執行一個步驟。

文件

取得 PyTorch 的完整開發人員文件

檢視文件

教學

取得初學者和進階開發人員的深入教學

檢視教學

資源

尋找開發資源並取得問題解答

檢視資源