捷徑

torch.nn.functional.silu

torch.nn.functional.silu(input, inplace=False)[原始碼][原始碼]

逐元素套用 Sigmoid Linear Unit (SiLU) 函數。

SiLU 函數也稱為 swish 函數。

silu(x)=xσ(x),where σ(x) is the logistic sigmoid.\text{silu}(x) = x * \sigma(x), \text{where } \sigma(x) \text{ is the logistic sigmoid.}

注意

請參閱 Gaussian Error Linear Units (GELUs),其中最初提出了 SiLU (Sigmoid Linear Unit);並參閱 Sigmoid-Weighted Linear Units for Neural Network Function Approximation in Reinforcement LearningSwish: a Self-Gated Activation Function,其中 SiLU 後來被實驗使用。

請參閱 SiLU 以取得更多詳細資訊。

回傳類型

Tensor

文件

存取 PyTorch 的完整開發人員文件

檢視文件

教學

取得針對初學者和進階開發人員的深入教學

檢視教學

資源

尋找開發資源並取得您的問題解答

檢視資源