快捷方式

torch.nn.functional.selu

torch.nn.functional.selu(input, inplace=False) Tensor[原始碼][原始碼]

逐元素地套用 SELU(x)=scale(max(0,x)+min(0,α(exp(x)1)))\text{SELU}(x) = scale * (\max(0,x) + \min(0, \alpha * (\exp(x) - 1))), 且 α=1.6732632423543772848170429916717\alpha=1.6732632423543772848170429916717 以及 scale=1.0507009873554804934193349852946scale=1.0507009873554804934193349852946

詳見 SELU 以取得更多詳細資訊。

回傳類型

Tensor

文件

取得 PyTorch 的完整開發者文件

檢視文件

教學

取得為初學者和進階開發者準備的深入教學

檢視教學

資源

尋找開發資源並取得您問題的解答

檢視資源