vgg16¶
- torchvision.models.vgg16(*, weights: Optional[VGG16_Weights] = None, progress: bool = True, **kwargs: Any) VGG [source]¶
來自 Very Deep Convolutional Networks for Large-Scale Image Recognition 的 VGG-16。
- 參數:
weights (
VGG16_Weights
, optional) – 要使用的預訓練權重。請參閱下方的VGG16_Weights
以取得更多詳細資訊和可能的值。預設情況下,不使用任何預訓練權重。progress (bool, optional) – 如果為 True,則在 stderr 上顯示下載的進度條。預設值為 True。
**kwargs – 傳遞給
torchvision.models.vgg.VGG
基底類別的參數。關於此類別的更多詳細資訊,請參考 原始碼。
- class torchvision.models.VGG16_Weights(value)[原始碼]¶
上面的模型建構器接受以下值作為
weights
參數。VGG16_Weights.DEFAULT
等同於VGG16_Weights.IMAGENET1K_V1
。您也可以使用字串,例如weights='DEFAULT'
或weights='IMAGENET1K_V1'
。VGG16_Weights.IMAGENET1K_V1:
這些權重是從頭開始訓練的,使用簡化的訓練方法。也可作為
VGG16_Weights.DEFAULT
使用。acc@1 (在 ImageNet-1K 上)
71.592
acc@5 (在 ImageNet-1K 上)
90.382
min_size
height=32, width=32
categories
tench, goldfish, great white shark, … (省略 997 個)
recipe
num_params
138357544
GFLOPS
15.47
File size
527.8 MB
推論轉換可在
VGG16_Weights.IMAGENET1K_V1.transforms
中找到,並執行以下預處理操作: 接受PIL.Image
、批次的(B, C, H, W)
和單個(C, H, W)
圖像torch.Tensor
物件。 圖像被調整大小到resize_size=[256]
,使用interpolation=InterpolationMode.BILINEAR
,然後進行crop_size=[224]
的中心裁剪。 最後,這些值首先被重新縮放到[0.0, 1.0]
,然後使用mean=[0.485, 0.456, 0.406]
和std=[0.229, 0.224, 0.225]
進行標準化。VGG16_Weights.IMAGENET1K_FEATURES:
由於 classifier 模組中缺少值,因此這些權重不能用於分類。 只有 features 模組具有有效值,可用於特徵提取。 這些權重是使用論文中描述的原始輸入標準化方法訓練的。
acc@1 (在 ImageNet-1K 上)
nan
acc@5 (在 ImageNet-1K 上)
nan
min_size
height=32, width=32
categories
None
recipe
num_params
138357544
GFLOPS
15.47
File size
527.8 MB
推論轉換可在
VGG16_Weights.IMAGENET1K_FEATURES.transforms
中找到,並執行以下預處理操作: 接受PIL.Image
、批次的(B, C, H, W)
和單個(C, H, W)
圖像torch.Tensor
物件。 圖像被調整大小到resize_size=[256]
,使用interpolation=InterpolationMode.BILINEAR
,然後進行crop_size=[224]
的中心裁剪。 最後,這些值首先被重新縮放到[0.0, 1.0]
,然後使用mean=[0.48235, 0.45882, 0.40784]
和std=[0.00392156862745098, 0.00392156862745098, 0.00392156862745098]
進行標準化。