捷徑

SiLU

class torch.nn.SiLU(inplace=False)[原始碼][原始碼]

逐元素套用 Sigmoid 線性單元 (SiLU) 函數。

SiLU 函數也稱為 swish 函數。

silu(x)=xσ(x),where σ(x) is the logistic sigmoid.\text{silu}(x) = x * \sigma(x), \text{where } \sigma(x) \text{ is the logistic sigmoid.}

注意

請參閱Gaussian Error Linear Units (GELUs),其中最初提出了 SiLU (Sigmoid Linear Unit) 的概念;並參閱Sigmoid-Weighted Linear Units for Neural Network Function Approximation in Reinforcement Learning 以及 Swish: a Self-Gated Activation Function,後續在這些論文中實驗了 SiLU。

形狀
  • 輸入: ()(*),其中 * 代表任意數量的維度。

  • 輸出: ()(*),與輸入相同的形狀。

../_images/SiLU.png

範例

>>> m = nn.SiLU()
>>> input = torch.randn(2)
>>> output = m(input)

文件

存取 PyTorch 的全面開發者文件

查看文件

教學

取得針對初學者和進階開發者的深入教學

查看教學

資源

尋找開發資源並獲得問題解答

查看資源