快捷方式

ConstantLR

class torch.optim.lr_scheduler.ConstantLR(optimizer, factor=0.3333333333333333, total_iters=5, last_epoch=-1, verbose='deprecated')[source][source]

將每個參數群組的學習率乘以一個小的常數因子。

此乘法會持續進行,直到 epoch 數量達到預定義的里程碑:total_iters。請注意,這種小常數因子的乘法可以與此排程器外部對學習率的其他更改同時發生。當 last_epoch=-1 時,將初始 lr 設為 lr。

參數
  • optimizer (Optimizer) – 包裝過的 optimizer。

  • factor (float) – 我們將學習率乘以直到里程碑的數字。預設值:1./3。

  • total_iters (int) – 排程器將學習率乘以 factor 的步數。預設值:5。

  • last_epoch (int) – 最後一個 epoch 的索引。預設值:-1。

  • verbose (bool | str) –

    如果 True,則為每次更新向 stdout 列印訊息。預設值:False

    Deprecated since version 2.2: verbose 已棄用。請使用 get_last_lr() 來存取學習率。

範例

>>> # Assuming optimizer uses lr = 0.05 for all groups
>>> # lr = 0.025   if epoch == 0
>>> # lr = 0.025   if epoch == 1
>>> # lr = 0.025   if epoch == 2
>>> # lr = 0.025   if epoch == 3
>>> # lr = 0.05    if epoch >= 4
>>> scheduler = ConstantLR(optimizer, factor=0.5, total_iters=4)
>>> for epoch in range(100):
>>>     train(...)
>>>     validate(...)
>>>     scheduler.step()
get_last_lr()[source]

傳回目前排程器計算的最後一個學習率。

傳回類型

List[float]

get_lr()[source][source]

計算每個參數群組的學習率。

load_state_dict(state_dict)[source]

載入排程器的狀態。

參數

state_dict (dict) – 排程器狀態。應該是從呼叫 state_dict() 傳回的物件。

print_lr(is_verbose, group, lr, epoch=None)[source]

顯示目前的學習率。

Deprecated since version 2.4: print_lr() 已棄用。請使用 get_last_lr() 來存取學習率。

state_dict()[source]

將排程器的狀態以 dict 的形式傳回。

它包含 self.__dict__ 中每個不是 optimizer 的變數的條目。

step(epoch=None)[source]

執行一個步驟。

文件

Access comprehensive developer documentation for PyTorch

View Docs

Tutorials

Get in-depth tutorials for beginners and advanced developers

View Tutorials

Resources

Find development resources and get your questions answered

View Resources