捷徑

DdpgCnnActor

class torchrl.modules.DdpgCnnActor(action_dim: int, conv_net_kwargs: Optional[dict] = None, mlp_net_kwargs: Optional[dict] = None, use_avg_pooling: bool = False, device: Optional[Union[device, str, int]] = None)[source]

DDPG 卷積 Actor 類別。

於 “使用深度強化學習進行連續控制” 中提出,https://arxiv.org/pdf/1509.02971.pdf

DDPG 卷積 Actor 將觀察結果(觀察到的像素的某種簡單轉換)作為輸入,並從中返回一個動作向量,以及一個可用於價值估計的觀察嵌入。 應訓練它以最大化 DDPG Q 值網路返回的價值。

參數:
  • action_dim (int) – 動作向量的長度。

  • conv_net_kwargs (dictdicts 的 list, optional) –

    ConvNet 的 kwargs。 預設為

    >>> {
    ...     'in_features': None,
    ...     "num_cells": [32, 64, 64],
    ...     "kernel_sizes": [8, 4, 3],
    ...     "strides": [4, 2, 1],
    ...     "paddings": [0, 0, 1],
    ...     'activation_class': torch.nn.ELU,
    ...     'norm_class': None,
    ...     'aggregator_class': SquashDims,
    ...     'aggregator_kwargs': {"ndims_in": 3},
    ...     'squeeze_output': True,
    ... }  #
    

  • mlp_net_kwargs

    MLP 的 kwargs。 預設為

    >>> {
    ...     'in_features': None,
    ...     'out_features': action_dim,
    ...     'depth': 2,
    ...     'num_cells': 200,
    ...     'activation_class': nn.ELU,
    ...     'bias_last_layer': True,
    ... }
    

  • use_avg_pooling (bool, optional) – 如果 True,則使用 AvgPooling 層來聚合輸出。預設值為 False

  • device (torch.device, optional) – 在其上建立模組的裝置。

範例

>>> import torch
>>> from torchrl.modules import DdpgCnnActor
>>> actor = DdpgCnnActor(action_dim=4)
>>> print(actor)
DdpgCnnActor(
  (convnet): ConvNet(
    (0): LazyConv2d(0, 32, kernel_size=(8, 8), stride=(4, 4))
    (1): ELU(alpha=1.0)
    (2): Conv2d(32, 64, kernel_size=(4, 4), stride=(2, 2))
    (3): ELU(alpha=1.0)
    (4): Conv2d(64, 64, kernel_size=(3, 3), stride=(1, 1), padding=(1, 1))
    (5): ELU(alpha=1.0)
    (6): SquashDims()
  )
  (mlp): MLP(
    (0): LazyLinear(in_features=0, out_features=200, bias=True)
    (1): ELU(alpha=1.0)
    (2): Linear(in_features=200, out_features=200, bias=True)
    (3): ELU(alpha=1.0)
    (4): Linear(in_features=200, out_features=4, bias=True)
  )
)
>>> obs = torch.randn(10, 3, 64, 64)
>>> action, hidden = actor(obs)
>>> print(action.shape)
torch.Size([10, 4])
>>> print(hidden.shape)
torch.Size([10, 2304])
forward(observation: Tensor) Tuple[Tensor, Tensor][source]

定義每次呼叫時執行的計算。

應由所有子類別覆寫。

注意

雖然前向傳遞的配方需要在這個函式中定義,但之後應該呼叫 Module 實例,而不是這個函式,因為前者會處理執行已註冊的 hooks,而後者會靜默地忽略它們。

文件

存取 PyTorch 的完整開發人員文件

檢視文件

教學課程

取得針對初學者和進階開發人員的深入教學課程

檢視教學課程

資源

尋找開發資源並取得問題的解答

檢視資源