捷徑

學習基礎知識 || 快速入門 || 張量 || 資料集與資料載入器 || 轉換 || 建立模型 || 自動微分 || 最佳化 || 儲存與載入模型

轉換

建立於:2021 年 2 月 09 日 | 最後更新:2021 年 8 月 11 日 | 最後驗證:未驗證

資料並不總是處於訓練機器學習演算法所需的最終處理形式。我們使用轉換對資料進行一些處理,使其適合訓練。

所有 TorchVision 資料集都有兩個參數 - transform 用於修改特徵,target_transform 用於修改標籤 - 接受包含轉換邏輯的可調用物件。 torchvision.transforms 模組提供了一些常用的轉換。

FashionMNIST 特徵採用 PIL 圖像格式,標籤是整數。對於訓練,我們需要將特徵作為標準化的張量,將標籤作為 one-hot 編碼的張量。 為了進行這些轉換,我們使用 ToTensorLambda

import torch
from torchvision import datasets
from torchvision.transforms import ToTensor, Lambda

ds = datasets.FashionMNIST(
    root="data",
    train=True,
    download=True,
    transform=ToTensor(),
    target_transform=Lambda(lambda y: torch.zeros(10, dtype=torch.float).scatter_(0, torch.tensor(y), value=1))
)
  0%|          | 0.00/26.4M [00:00<?, ?B/s]
  0%|          | 65.5k/26.4M [00:00<01:13, 360kB/s]
  1%|          | 229k/26.4M [00:00<00:38, 677kB/s]
  3%|3         | 918k/26.4M [00:00<00:09, 2.60MB/s]
  7%|7         | 1.93M/26.4M [00:00<00:06, 4.05MB/s]
 13%|#3        | 3.54M/26.4M [00:00<00:03, 7.13MB/s]
 32%|###2      | 8.55M/26.4M [00:00<00:00, 18.4MB/s]
 44%|####3     | 11.5M/26.4M [00:01<00:00, 18.9MB/s]
 54%|#####3    | 14.2M/26.4M [00:01<00:00, 20.5MB/s]
 71%|#######   | 18.7M/26.4M [00:01<00:00, 26.6MB/s]
 83%|########2 | 21.9M/26.4M [00:01<00:00, 24.3MB/s]
 93%|#########2| 24.5M/26.4M [00:01<00:00, 24.5MB/s]
100%|##########| 26.4M/26.4M [00:01<00:00, 17.8MB/s]

  0%|          | 0.00/29.5k [00:00<?, ?B/s]
100%|##########| 29.5k/29.5k [00:00<00:00, 325kB/s]

  0%|          | 0.00/4.42M [00:00<?, ?B/s]
  1%|1         | 65.5k/4.42M [00:00<00:12, 357kB/s]
  5%|5         | 229k/4.42M [00:00<00:06, 671kB/s]
 21%|##        | 918k/4.42M [00:00<00:01, 2.53MB/s]
 44%|####3     | 1.93M/4.42M [00:00<00:00, 4.03MB/s]
100%|##########| 4.42M/4.42M [00:00<00:00, 5.99MB/s]

  0%|          | 0.00/5.15k [00:00<?, ?B/s]
100%|##########| 5.15k/5.15k [00:00<00:00, 36.9MB/s]

ToTensor()

ToTensor 將 PIL 圖像或 NumPy ndarray 轉換為 FloatTensor,並將圖像的像素強度值縮放到 [0., 1.] 範圍內

Lambda 轉換

Lambda 轉換應用任何使用者定義的 lambda 函數。 在此,我們定義一個函數將整數轉換為 one-hot 編碼的張量。 它首先建立一個大小為 10 的零張量(我們資料集中標籤的數量),並呼叫 scatter_,它在標籤 y 給定的索引上分配一個 value=1

target_transform = Lambda(lambda y: torch.zeros(
    10, dtype=torch.float).scatter_(dim=0, index=torch.tensor(y), value=1))

文件

存取 PyTorch 的全面開發人員文件

查看文件

教程

獲取適合初學者和進階開發人員的深入教程

查看教程

資源

尋找開發資源並獲得您的問題解答

查看資源