timm 文件

EfficientNet(揹包剪枝)

Hugging Face's logo
加入 Hugging Face 社群

並獲得增強的文件體驗

開始使用

EfficientNet(揹包剪枝)

EfficientNet 是一種卷積神經網路架構和縮放方法,它使用複合係數統一縮放深度/寬度/解析度的所有維度。與任意縮放這些因素的傳統做法不同,EfficientNet 縮放方法使用一組固定的縮放係數統一縮放網路寬度、深度和解析度。例如,如果我們想使用2N 2^N 倍的計算資源,那麼我們可以簡單地將網路深度增加αN \alpha ^ N ,寬度增加βN \beta ^ N ,影像大小增加γN \gamma ^ N ,其中α,β,γ \alpha, \beta, \gamma 是常數係數,透過對原始小模型進行小範圍網格搜尋來確定。EfficientNet 使用複合係數ϕ \phi 以一種有原則的方式統一縮放網路寬度、深度和解析度。

複合縮放方法是基於這樣的直覺:如果輸入影像更大,那麼網路需要更多的層來增加感受野,需要更多的通道來捕獲更大影像上更精細的模式。

基礎 EfficientNet-B0 網路基於 MobileNetV2 的倒置瓶頸殘差塊,並加入了Squeeze-and-Excitation 模組

此集合包含剪枝後的 EfficientNet 模型。

如何在影像上使用此模型?

載入預訓練模型

>>> import timm
>>> model = timm.create_model('efficientnet_b1_pruned', pretrained=True)
>>> model.eval()

載入並預處理影像

>>> import urllib
>>> from PIL import Image
>>> from timm.data import resolve_data_config
>>> from timm.data.transforms_factory import create_transform

>>> config = resolve_data_config({}, model=model)
>>> transform = create_transform(**config)

>>> url, filename = ("https://github.com/pytorch/hub/raw/master/images/dog.jpg", "dog.jpg")
>>> urllib.request.urlretrieve(url, filename)
>>> img = Image.open(filename).convert('RGB')
>>> tensor = transform(img).unsqueeze(0) # transform and add batch dimension

獲取模型預測結果

>>> import torch
>>> with torch.inference_mode():
...     out = model(tensor)
>>> probabilities = torch.nn.functional.softmax(out[0], dim=0)
>>> print(probabilities.shape)
>>> # prints: torch.Size([1000])

獲取排名前 5 的預測類別名稱

>>> # Get imagenet class mappings
>>> url, filename = ("https://raw.githubusercontent.com/pytorch/hub/master/imagenet_classes.txt", "imagenet_classes.txt")
>>> urllib.request.urlretrieve(url, filename)
>>> with open("imagenet_classes.txt", "r") as f:
...     categories = [s.strip() for s in f.readlines()]

>>> # Print top categories per image
>>> top5_prob, top5_catid = torch.topk(probabilities, 5)
>>> for i in range(top5_prob.size(0)):
...     print(categories[top5_catid[i]], top5_prob[i].item())
>>> # prints class names and probabilities like:
>>> # [('Samoyed', 0.6425196528434753), ('Pomeranian', 0.04062102362513542), ('keeshond', 0.03186424449086189), ('white wolf', 0.01739676296710968), ('Eskimo dog', 0.011717947199940681)]

將模型名稱替換為您想使用的變體,例如 efficientnet_b1_pruned。您可以在本頁頂部的模型摘要中找到 ID。

要使用此模型提取影像特徵,請遵循 timm 特徵提取示例,只需更改你想使用的模型名稱。

如何微調此模型?

你可以透過更改分類器(最後一層)來微調任何預訓練模型。

>>> model = timm.create_model('efficientnet_b1_pruned', pretrained=True, num_classes=NUM_FINETUNE_CLASSES)

要在自己的資料集上進行微調,你需要編寫一個訓練迴圈或修改 timm 的訓練指令碼以使用你的資料集。

如何訓練此模型?

你可以按照 timm 食譜指令碼來重新訓練一個新模型。

引用

@misc{tan2020efficientnet,
      title={EfficientNet: Rethinking Model Scaling for Convolutional Neural Networks},
      author={Mingxing Tan and Quoc V. Le},
      year={2020},
      eprint={1905.11946},
      archivePrefix={arXiv},
      primaryClass={cs.LG}
}
@misc{aflalo2020knapsack,
      title={Knapsack Pruning with Inner Distillation},
      author={Yonathan Aflalo and Asaf Noy and Ming Lin and Itamar Friedman and Lihi Zelnik},
      year={2020},
      eprint={2002.08258},
      archivePrefix={arXiv},
      primaryClass={cs.LG}
}
< > 在 GitHub 上更新

© . This site is unofficial and not affiliated with Hugging Face, Inc.