快捷方式

torch.quantized_batch_norm

torch.quantized_batch_norm(input, weight=None, bias=None, mean, var, eps, output_scale, output_zero_point) Tensor

對 4D (NCHW) 量化張量應用批次正規化。

y=xE[x]Var[x]+ϵγ+βy = \frac{x - \mathrm{E}[x]}{\sqrt{\mathrm{Var}[x] + \epsilon}} * \gamma + \beta
參數
  • input (Tensor) – 量化張量

  • weight (Tensor) – 對應於 gamma 的浮點數張量,大小為 C

  • bias (Tensor) – 對應於 beta 的浮點數張量,大小為 C

  • mean (Tensor) – 批次正規化中的浮點數平均值,大小為 C

  • var (Tensor) – 浮點數變異數張量,大小為 C

  • eps (float) – 加到分母以確保數值穩定性的值。

  • output_scale (float) – 輸出量化張量的 scale

  • output_zero_point (int) – 輸出量化張量的 zero_point

返回值

應用批次正規化後的量化張量。

返回類型

Tensor

範例

>>> qx = torch.quantize_per_tensor(torch.rand(2, 2, 2, 2), 1.5, 3, torch.quint8)
>>> torch.quantized_batch_norm(qx, torch.ones(2), torch.zeros(2), torch.rand(2), torch.rand(2), 0.00001, 0.2, 2)
tensor([[[[-0.2000, -0.2000],
      [ 1.6000, -0.2000]],

     [[-0.4000, -0.4000],
      [-0.4000,  0.6000]]],


    [[[-0.2000, -0.2000],
      [-0.2000, -0.2000]],

     [[ 0.6000, -0.4000],
      [ 0.6000, -0.4000]]]], size=(2, 2, 2, 2), dtype=torch.quint8,
   quantization_scheme=torch.per_tensor_affine, scale=0.2, zero_point=2)

文件

取得 PyTorch 的完整開發者文件

檢視文件

教學

取得適合初學者和進階開發者的深入教學

檢視教學

資源

尋找開發資源並獲得問題解答

檢視資源