RoboHiveEnv¶
- torchrl.envs.RoboHiveEnv(*args, **kwargs)[原始碼]¶
RoboHive gym 環境的包裝器。
RoboHive 是一組使用 MuJoCo 物理引擎模擬的環境/任務集合,這些環境/任務使用 OpenAI-Gym API 暴露出來。
Github: https://github.com/vikashplus/robohive/
Doc: https://github.com/vikashplus/robohive/wiki
Paper: https://arxiv.org/abs/2310.06828
警告
RoboHive 需要 gym 0.13。
- 參數:
env_name (str) – 要建構的環境名稱。 必須是
available_envs
之一categorical_action_encoding (bool, optional) – 如果
True
,分類規格將轉換為 TorchRL 等效項 (torchrl.data.Categorical
),否則將使用 one-hot 編碼 (torchrl.data.OneHot
)。 預設為False
。
- 關鍵字引數:
from_pixels (bool, optional) – 如果
True
,則會嘗試從 env 傳回像素觀察。 預設情況下,這些觀察將寫入"pixels"
條目下。 使用的方法因 gym 版本而異,可能涉及wrappers.pixel_observation.PixelObservationWrapper
。 預設為False
。pixels_only (bool, optional) – 如果
True
,則只會傳回像素觀察 (預設情況下位於輸出 tensordict 中的"pixels"
條目下)。 如果False
,則只要from_pixels=True
,就會傳回觀察 (例如狀態) 和像素。 預設為True
。from_depths (bool, optional) – 如果
True
,將嘗試從環境中回傳深度觀測值。預設情況下,這些觀測值將寫入"depths"
條目下。需要from_pixels
為True
。預設值為False
。frame_skip (int, optional) – 如果提供,表示要重複執行相同動作的步數。回傳的觀測值將是序列的最後一個觀測值,而獎勵將是跨步數的獎勵總和。
device (torch.device, optional) – 如果提供,則為要將資料轉換到的裝置。預設值為
torch.device("cpu")
。batch_size (torch.Size, optional) – 由於此類別中不支援向量化環境,因此只有
torch.Size([])
才能與RoboHiveEnv
一起使用。若要一次執行多個環境,請參閱ParallelEnv
。allow_done_after_reset (bool, optional) – 如果
True
,則允許環境在呼叫reset()
後立即為done
。預設值為False
。
- 變數:
available_envs (list) – 可建構的可用環境的清單。
範例
>>> from torchrl.envs import RoboHiveEnv >>> env = RoboHiveEnv(RoboHiveEnv.available_envs[0]) >>> env.rollout(3)