捷徑

torch.hamming_window

torch.hamming_window(window_length, periodic=True, alpha=0.54, beta=0.46, *, dtype=None, layout=torch.strided, device=None, requires_grad=False) Tensor

Hamming 視窗函數。

w[n]=αβ cos(2πnN1),w[n] = \alpha - \beta\ \cos \left( \frac{2 \pi n}{N - 1} \right),

其中 NN 是完整的視窗大小。

輸入 window_length 是一個正整數,用於控制返回的視窗大小。periodic 標記決定是否從對稱視窗中刪除最後一個重複值,並且準備好作為週期性視窗與 torch.stft() 之類的函數一起使用。因此,如果 periodic 為 true,則上述公式中的 NN 實際上是 window_length+1\text{window\_length} + 1。此外,我們始終有 torch.hamming_window(L, periodic=True) 等於 torch.hamming_window(L + 1, periodic=False)[:-1])

注意

如果 window_length =1=1,則返回的視窗包含單個值 1。

注意

這是 torch.hann_window() 的一般化版本。

參數
  • window_length (int) – 返回的視窗大小

  • periodic (bool, optional) – 如果為 True,則返回要用作週期函數的視窗。如果為 False,則返回對稱視窗。

  • alpha (float, optional) – 方程式中的係數 α\alpha

  • beta (float, optional) – 方程式中的係數 β\beta

關鍵字參數
  • dtype (torch.dtype, optional) – 返回張量的所需資料類型。預設值:如果 None,則使用全域預設值 (請參閱 torch.set_default_dtype())。僅支援浮點數類型。

  • layout (torch.layout, optional) – 返回視窗張量的所需佈局。僅支援 torch.strided (密集佈局)。

  • device (torch.device, optional) – 返回張量的所需裝置。預設值:如果 None,則針對預設張量類型使用目前的裝置 (請參閱 torch.set_default_device())。對於 CPU 張量類型,device 將為 CPU;對於 CUDA 張量類型,則為目前的 CUDA 裝置。

  • requires_grad (bool, optional) – 如果 autograd 應該記錄傳回張量的運算。預設值:False

傳回

一個大小為 (window_length,)(\text{window\_length},) 的一維張量,其中包含視窗。

傳回類型

張量

文件

存取 PyTorch 的完整開發者文件

檢視文件

教學課程

取得針對初學者和進階開發者的深度教學課程

檢視教學課程

資源

尋找開發資源並獲得您的問題解答

檢視資源