注意
點擊這裡下載完整的範例程式碼
學習基礎知識 || 快速入門 || 張量 || 資料集與資料載入器 || 轉換 || 建立模型 || 自動微分 || 最佳化 || 儲存與載入模型
轉換¶
建立於:2021 年 2 月 09 日 | 最後更新:2021 年 8 月 11 日 | 最後驗證:未驗證
資料並不總是處於訓練機器學習演算法所需的最終處理形式。我們使用轉換對資料進行一些處理,使其適合訓練。
所有 TorchVision 資料集都有兩個參數 - transform
用於修改特徵,target_transform
用於修改標籤 - 接受包含轉換邏輯的可調用物件。 torchvision.transforms 模組提供了一些常用的轉換。
FashionMNIST 特徵採用 PIL 圖像格式,標籤是整數。對於訓練,我們需要將特徵作為標準化的張量,將標籤作為 one-hot 編碼的張量。 為了進行這些轉換,我們使用 ToTensor
和 Lambda
。
import torch
from torchvision import datasets
from torchvision.transforms import ToTensor, Lambda
ds = datasets.FashionMNIST(
root="data",
train=True,
download=True,
transform=ToTensor(),
target_transform=Lambda(lambda y: torch.zeros(10, dtype=torch.float).scatter_(0, torch.tensor(y), value=1))
)
0%| | 0.00/26.4M [00:00<?, ?B/s]
0%| | 65.5k/26.4M [00:00<01:13, 360kB/s]
1%| | 229k/26.4M [00:00<00:38, 677kB/s]
3%|3 | 918k/26.4M [00:00<00:09, 2.60MB/s]
7%|7 | 1.93M/26.4M [00:00<00:06, 4.05MB/s]
13%|#3 | 3.54M/26.4M [00:00<00:03, 7.13MB/s]
32%|###2 | 8.55M/26.4M [00:00<00:00, 18.4MB/s]
44%|####3 | 11.5M/26.4M [00:01<00:00, 18.9MB/s]
54%|#####3 | 14.2M/26.4M [00:01<00:00, 20.5MB/s]
71%|####### | 18.7M/26.4M [00:01<00:00, 26.6MB/s]
83%|########2 | 21.9M/26.4M [00:01<00:00, 24.3MB/s]
93%|#########2| 24.5M/26.4M [00:01<00:00, 24.5MB/s]
100%|##########| 26.4M/26.4M [00:01<00:00, 17.8MB/s]
0%| | 0.00/29.5k [00:00<?, ?B/s]
100%|##########| 29.5k/29.5k [00:00<00:00, 325kB/s]
0%| | 0.00/4.42M [00:00<?, ?B/s]
1%|1 | 65.5k/4.42M [00:00<00:12, 357kB/s]
5%|5 | 229k/4.42M [00:00<00:06, 671kB/s]
21%|## | 918k/4.42M [00:00<00:01, 2.53MB/s]
44%|####3 | 1.93M/4.42M [00:00<00:00, 4.03MB/s]
100%|##########| 4.42M/4.42M [00:00<00:00, 5.99MB/s]
0%| | 0.00/5.15k [00:00<?, ?B/s]
100%|##########| 5.15k/5.15k [00:00<00:00, 36.9MB/s]
Lambda 轉換¶
Lambda 轉換應用任何使用者定義的 lambda 函數。 在此,我們定義一個函數將整數轉換為 one-hot 編碼的張量。 它首先建立一個大小為 10 的零張量(我們資料集中標籤的數量),並呼叫 scatter_,它在標籤 y
給定的索引上分配一個 value=1
。
target_transform = Lambda(lambda y: torch.zeros(
10, dtype=torch.float).scatter_(dim=0, index=torch.tensor(y), value=1))