TDLambdaEstimator¶
- class torchrl.objectives.value.TDLambdaEstimator(*args, **kwargs)[source]¶
優勢函數的 TD(\(\lambda\)) 估計。
- 參數:
gamma (純量) – 指數平均折扣。
lmbda (純量) – 軌跡折扣。
value_network (TensorDictModule) – 用於檢索價值估計的價值運算子。
average_rewards (bool, optional) – 如果
True
,獎勵將在計算 TD 之前進行標準化。differentiable (bool, optional) –
如果
True
,梯度會透過價值函數的計算傳播。預設值為False
。注意
使函數呼叫不可微的正確方法是在 torch.no_grad() 上下文管理器/裝飾器中裝飾它,或者為功能模組傳遞分離的參數。
vectorized (bool, optional) – 是否使用 lambda 返回的向量化版本。預設值為 True。
skip_existing (bool, optional) – 如果
True
,價值網路將跳過 tensordict 中已存在的輸出模組。預設值為None
,即tensordict.nn.skip_existing()
的值不受影響。advantage_key (str or tuple of str, optional) – [已棄用] 優勢條目的鍵。預設值為
"advantage"
。value_target_key (str or tuple of str, optional) – [已棄用] 優勢條目的鍵。預設值為
"value_target"
。value_key (str or tuple of str, optional) – [已棄用] 從輸入 tensordict 讀取的價值鍵。預設值為
"state_value"
。shifted (bool, optional) – 如果
True
,價值和下一個價值將透過單次呼叫價值網路來估計。這樣做速度更快,但僅在 (1)"next"
價值僅移動一個時間步長時有效(例如,多步價值估計的情況並非如此),以及 (2) 在時間t
和t+1
使用的參數相同時有效(使用目標參數的情況並非如此)。預設值為False
。device ( torch.device, optional) – 模組的裝置。
time_dim (int, optional) – 輸入 tensordict 中對應於時間的維度。如果未提供,則預設為標記有
"time"
名稱的維度 (如果有的話),否則預設為最後一個維度。可以在呼叫value_estimate()
時覆寫。負維度是相對於輸入 tensordict 而言的。
- forward(tensordict: TensorDictBase = None, *, params: Optional[List[Tensor]] = None, target_params: Optional[List[Tensor]] = None) TensorDictBase [source]¶
計算給定 tensordict 中資料的 TD(\(\lambda\)) 優勢。
如果提供了函數式模組,則可以將包含參數(以及相關的目標參數)的巢狀 TensorDict 傳遞給該模組。
- 參數:
tensordict (TensorDictBase) – 包含計算價值估計和 TDLambdaEstimate 所需資料 (觀察鍵、
"action"
、("next", "reward")
、("next", "done")
、("next", "terminated")
和環境傳回的"next"
tensordict 狀態) 的 TensorDict。傳遞給此模組的資料結構應為[*B, T, *F]
,其中B
是批次大小,T
是時間維度,而F
是特徵維度。tensordict 必須具有[*B, T]
的形狀。- 關鍵字參數:
params (TensorDictBase, optional) – 包含要傳遞到函數式價值網路模組的參數的巢狀 TensorDict。
target_params (TensorDictBase, optional) – 包含要傳遞到函數式價值網路模組的目標參數的巢狀 TensorDict。
- 傳回:
更新後的 TensorDict,其中包含建構函式中定義的優勢和 value_error 鍵。
範例
>>> from tensordict import TensorDict >>> value_net = TensorDictModule( ... nn.Linear(3, 1), in_keys=["obs"], out_keys=["state_value"] ... ) >>> module = TDLambdaEstimator( ... gamma=0.98, ... lmbda=0.94, ... value_network=value_net, ... ) >>> obs, next_obs = torch.randn(2, 1, 10, 3) >>> reward = torch.randn(1, 10, 1) >>> done = torch.zeros(1, 10, 1, dtype=torch.bool) >>> terminated = torch.zeros(1, 10, 1, dtype=torch.bool) >>> tensordict = TensorDict({"obs": obs, "next": {"obs": next_obs, "done": done, "reward": reward, "terminated": terminated}}, [1, 10]) >>> _ = module(tensordict) >>> assert "advantage" in tensordict.keys()
此模組也支援非 tensordict(即解包的 tensordict)輸入
範例
>>> value_net = TensorDictModule( ... nn.Linear(3, 1), in_keys=["obs"], out_keys=["state_value"] ... ) >>> module = TDLambdaEstimator( ... gamma=0.98, ... lmbda=0.94, ... value_network=value_net, ... ) >>> obs, next_obs = torch.randn(2, 1, 10, 3) >>> reward = torch.randn(1, 10, 1) >>> done = torch.zeros(1, 10, 1, dtype=torch.bool) >>> terminated = torch.zeros(1, 10, 1, dtype=torch.bool) >>> advantage, value_target = module(obs=obs, next_reward=reward, next_done=done, next_obs=next_obs, next_terminated=terminated)
- value_estimate(tensordict, target_params: Optional[TensorDictBase] = None, next_value: Optional[Tensor] = None, time_dim: Optional[int] = None, **kwargs)[source]¶
取得價值估計,通常用作價值網路的目標價值。
如果在
tensordict.get(("next", self.tensor_keys.value))
下存在狀態價值鍵,則將使用此價值,而無需遞迴到價值網路。- 參數:
tensordict (TensorDictBase) – 包含要讀取資料的 tensordict。
target_params (TensorDictBase, optional) – 包含要傳遞到函數式價值網路模組的目標參數的巢狀 TensorDict。
next_value ( torch.Tensor, optional) – 下一個狀態或狀態-動作對的價值。與
target_params
互斥。**kwargs – 要傳遞到價值網路的關鍵字參數。
傳回:對應於狀態價值的張量。