ClearCudaCache¶ class torchrl.trainers.ClearCudaCache(interval: int)[原始碼]¶ 在給定的間隔清除 cuda 快取。 範例 >>> clear_cuda = ClearCudaCache(100) >>> trainer.register_op("pre_optim_steps", clear_cuda) abstract register(trainer: Trainer, name: str)¶ 在預設位置的 trainer 中註冊 hook。 參數: trainer (Trainer) – 必須註冊 hook 的 trainer。 name (str) – hook 的名稱。 注意 若要將 hook 註冊到非預設位置,請使用 register_op()。