torch.nn.functional.prelu¶ torch.nn.functional.prelu(input, weight) → Tensor¶ 逐元素地應用函數 PReLU(x)=max(0,x)+weight∗min(0,x)\text{PReLU}(x) = \max(0,x) + \text{weight} * \min(0,x)PReLU(x)=max(0,x)+weight∗min(0,x),其中 weight 是一個可學習的參數。 注意 weight 應為純量或一維張量。如果 weight 是一維的,則其大小必須與輸入通道的數量相符,當 input.dim() >= 2 時,由 input.size(1) 決定;否則為 1。在一維的情況下,請注意當 input 的維度 > 2 時,weight 可以擴展到 input 的形狀,而這無法使用一般的 廣播語義來實現。 有關更多詳細信息,請參閱 PReLU。