捷徑

PolynomialLR

class torch.optim.lr_scheduler.PolynomialLR(optimizer, total_iters=5, power=1.0, last_epoch=-1, verbose='deprecated')[source][source]

使用給定的 total_iters,以多項式函數衰減每個參數群組的學習率。

當 last_epoch=-1 時,將初始學習率設定為 lr。

參數
  • optimizer (Optimizer) – 包裝的優化器。

  • total_iters (int) – 排程器衰減學習率的步數。預設值:5。

  • power (float) – 多項式的次方。預設值:1.0。

  • verbose (bool | str) –

    如果為 True,則為每次更新將訊息列印到 stdout。預設值:False

    版本 2.2 開始棄用: verbose 已棄用。請使用 get_last_lr() 來存取學習率。

範例

>>> # Assuming optimizer uses lr = 0.001 for all groups
>>> # lr = 0.001     if epoch == 0
>>> # lr = 0.00075   if epoch == 1
>>> # lr = 0.00050   if epoch == 2
>>> # lr = 0.00025   if epoch == 3
>>> # lr = 0.0       if epoch >= 4
>>> scheduler = PolynomialLR(optimizer, total_iters=4, power=1.0)
>>> for epoch in range(100):
>>>     train(...)
>>>     validate(...)
>>>     scheduler.step()
get_last_lr()[source]

傳回目前排程器計算出的最後一個學習率。

傳回類型

List[float]

get_lr()[source][source]

計算學習率。

load_state_dict(state_dict)[source]

載入排程器的狀態。

參數

state_dict (dict) – 排程器狀態。應該是呼叫 state_dict() 傳回的物件。

print_lr(is_verbose, group, lr, epoch=None)[source]

顯示目前的學習率。

版本 2.4 開始棄用: print_lr() 已棄用。請使用 get_last_lr() 來存取學習率。

state_dict()[source]

將排程器的狀態以 dict 的形式傳回。

它包含 self.__dict__ 中每個不是優化器的變數的條目。

step(epoch=None)[source]

執行一個步驟。

文件

Access comprehensive developer documentation for PyTorch

View Docs

Tutorials

Get in-depth tutorials for beginners and advanced developers

View Tutorials

Resources

Find development resources and get your questions answered

View Resources