快捷鍵

RoboHiveEnv

torchrl.envs.RoboHiveEnv(*args, **kwargs)[原始碼]

RoboHive gym 環境的包裝器。

RoboHive 是一組使用 MuJoCo 物理引擎模擬的環境/任務集合,這些環境/任務使用 OpenAI-Gym API 暴露出來。

Github: https://github.com/vikashplus/robohive/

Doc: https://github.com/vikashplus/robohive/wiki

Paper: https://arxiv.org/abs/2310.06828

警告

RoboHive 需要 gym 0.13。

參數:
  • env_name (str) – 要建構的環境名稱。 必須是 available_envs 之一

  • categorical_action_encoding (bool, optional) – 如果 True,分類規格將轉換為 TorchRL 等效項 (torchrl.data.Categorical),否則將使用 one-hot 編碼 (torchrl.data.OneHot)。 預設為 False

關鍵字引數:
  • from_pixels (bool, optional) – 如果 True,則會嘗試從 env 傳回像素觀察。 預設情況下,這些觀察將寫入 "pixels" 條目下。 使用的方法因 gym 版本而異,可能涉及 wrappers.pixel_observation.PixelObservationWrapper。 預設為 False

  • pixels_only (bool, optional) – 如果 True,則只會傳回像素觀察 (預設情況下位於輸出 tensordict 中的 "pixels" 條目下)。 如果 False,則只要 from_pixels=True,就會傳回觀察 (例如狀態) 和像素。 預設為 True

  • from_depths (bool, optional) – 如果 True,將嘗試從環境中回傳深度觀測值。預設情況下,這些觀測值將寫入 "depths" 條目下。需要 from_pixelsTrue。預設值為 False

  • frame_skip (int, optional) – 如果提供,表示要重複執行相同動作的步數。回傳的觀測值將是序列的最後一個觀測值,而獎勵將是跨步數的獎勵總和。

  • device (torch.device, optional) – 如果提供,則為要將資料轉換到的裝置。預設值為 torch.device("cpu")

  • batch_size (torch.Size, optional) – 由於此類別中不支援向量化環境,因此只有 torch.Size([]) 才能與 RoboHiveEnv 一起使用。若要一次執行多個環境,請參閱 ParallelEnv

  • allow_done_after_reset (bool, optional) – 如果 True,則允許環境在呼叫 reset() 後立即為 done。預設值為 False

變數:

available_envs (list) – 可建構的可用環境的清單。

範例

>>> from torchrl.envs import RoboHiveEnv
>>> env = RoboHiveEnv(RoboHiveEnv.available_envs[0])
>>> env.rollout(3)

文件

存取 PyTorch 的完整開發人員文件

檢視文件

教學課程

取得適合初學者和進階開發人員的深入教學課程

檢視教學課程

資源

尋找開發資源並獲得問題解答

檢視資源