LSTMCell¶
- class torch.nn.LSTMCell(input_size, hidden_size, bias=True, device=None, dtype=None)[source][source]¶
一個長短期記憶 (LSTM) 單元。
其中 是 sigmoid 函數,而 是 Hadamard 乘積。
- 參數
- 輸入:input, (h_0, c_0)
形狀為 (batch, input_size) 或 (input_size) 的 input:包含輸入特徵的張量
形狀為 (batch, hidden_size) 或 (hidden_size) 的 h_0:包含初始隱藏狀態的張量
形狀為 (batch, hidden_size) 或 (hidden_size) 的 c_0:包含初始記憶單元狀態的張量
如果未提供 (h_0, c_0),則 h_0 和 c_0 預設為零。
- 輸出:(h_1, c_1)
形狀為 (batch, hidden_size) 或 (hidden_size) 的 h_1:包含下一個隱藏狀態的張量
形狀為 (batch, hidden_size) 或 (hidden_size) 的 c_1:包含下一個記憶單元狀態的張量
- 變數
weight_ih (torch.Tensor) – 可學習的輸入到隱藏層的權重,形狀為 (4*hidden_size, input_size)
weight_hh (torch.Tensor) – 可學習的隱藏層到隱藏層的權重,形狀為 (4*hidden_size, hidden_size)
bias_ih – 可學習的輸入到隱藏層的偏差,形狀為 (4*hidden_size)
bias_hh – 可學習的隱藏層到隱藏層的偏差,形狀為 (4*hidden_size)
注意
所有權重和偏差都從 初始化的,其中
在某些 ROCm 裝置上,當使用 float16 輸入時,此模組將使用 不同的精度 進行反向傳播。
範例
>>> rnn = nn.LSTMCell(10, 20) # (input_size, hidden_size) >>> input = torch.randn(2, 3, 10) # (time_steps, batch, input_size) >>> hx = torch.randn(3, 20) # (batch, hidden_size) >>> cx = torch.randn(3, 20) >>> output = [] >>> for i in range(input.size()[0]): ... hx, cx = rnn(input[i], (hx, cx)) ... output.append(hx) >>> output = torch.stack(output, dim=0)