捷徑

LogReward

class torchrl.trainers.LogReward(logname='r_training', log_pbar: bool = False, reward_key: Optional[Union[str, tuple]] = None)[來源]

獎勵記錄器掛鉤。

參數:
  • logname (str, optional) – 要記錄的獎勵名稱。預設值為 "r_training"

  • log_pbar (bool, optional) – 如果 True,獎勵值將記錄在進度列上。預設值為 False

  • reward_key (strtuple, optional) – 在輸入批次中尋找獎勵的鍵。預設值為 ("next", "reward")

範例

>>> log_reward = LogReward(("next", "reward"))
>>> trainer.register_op("pre_steps_log", log_reward)
register(trainer: Trainer, name: str = 'log_reward')[來源]

在預設位置將掛鉤註冊到訓練器中。

參數:
  • trainer (Trainer) – 必須註冊掛鉤的訓練器。

  • name (str) – 掛鉤的名稱。

注意

若要在預設位置以外的其他位置註冊掛鉤,請使用 register_op()

文件

取得 PyTorch 的完整開發者文件

檢視文件

教學

取得針對初學者和進階開發者的深入教學

檢視教學

資源

尋找開發資源並取得您的問題解答

檢視資源