快速鍵

PReLU

class torch.nn.PReLU(num_parameters=1, init=0.25, device=None, dtype=None)[來源][來源]

應用逐元素的 PReLU 函數。

PReLU(x)=max(0,x)+amin(0,x)\text{PReLU}(x) = \max(0,x) + a * \min(0,x)

PReLU(x)={x, if x0ax, otherwise \text{PReLU}(x) = \begin{cases} x, & \text{ if } x \ge 0 \\ ax, & \text{ otherwise } \end{cases}

此處 aa 是一個可學習的參數。當不帶參數呼叫 nn.PReLU() 時,它會使用單一參數 aa 應用於所有輸入通道。如果使用 nn.PReLU(nChannels) 呼叫,則每個輸入通道都會使用不同的 aa

注意

為了獲得良好的效能,在學習 aa 時不應使用權重衰減。

注意

通道維度是輸入的第二個維度。當輸入的維度 < 2 時,則沒有通道維度,且通道數 = 1。

參數
  • num_parameters (int) – 要學習的 aa 數量。 雖然它以 int 作為輸入,但只有兩個值是合法的:1,或輸入時的通道數。 預設值:1

  • init (float) – aa 的初始值。 預設值:0.25

形狀
  • 輸入: ()( *) 其中 * 表示任意數量的額外維度。

  • 輸出: ()(*),與輸入相同的形狀。

變數

weight (Tensor) – 形狀為 (num_parameters) 的可學習權重。

../_images/PReLU.png

範例

>>> m = nn.PReLU()
>>> input = torch.randn(2)
>>> output = m(input)

文件

存取 PyTorch 的綜合開發人員文件

檢視文件

教學課程

取得適用於初學者和進階開發人員的深入教學課程

檢視教學課程

資源

尋找開發資源並取得您的問題解答

檢視資源