timm 文件
深度層聚合
加入 Hugging Face 社群
並獲得增強的文件體驗
開始使用
深度層聚合
在“淺層”跳躍連線的基礎上,**深度層聚合(DLA)**引入了更多的深度和共享。作者提出了兩種深度層聚合(DLA)結構:迭代深度聚合(IDA)和分層深度聚合(HDA)。這些結構透過一個架構框架表達,獨立於主幹網路的選擇,以便與當前和未來的網路相容。
IDA 側重於融合解析度和尺度,而 HDA 側重於合併來自所有模組和通道的特徵。IDA 遵循基本層次結構,逐級細化解析度並聚合尺度。HDA 建立了自己的樹狀連線層次結構,這些連線交叉合併階段,以聚合不同級別的表示。
如何在影像上使用此模型?
載入預訓練模型
>>> import timm
>>> model = timm.create_model('dla102', pretrained=True)
>>> model.eval()
載入並預處理影像
>>> import urllib
>>> from PIL import Image
>>> from timm.data import resolve_data_config
>>> from timm.data.transforms_factory import create_transform
>>> config = resolve_data_config({}, model=model)
>>> transform = create_transform(**config)
>>> url, filename = ("https://github.com/pytorch/hub/raw/master/images/dog.jpg", "dog.jpg")
>>> urllib.request.urlretrieve(url, filename)
>>> img = Image.open(filename).convert('RGB')
>>> tensor = transform(img).unsqueeze(0) # transform and add batch dimension
獲取模型預測結果
>>> import torch
>>> with torch.inference_mode():
... out = model(tensor)
>>> probabilities = torch.nn.functional.softmax(out[0], dim=0)
>>> print(probabilities.shape)
>>> # prints: torch.Size([1000])
獲取排名前 5 的預測類別名稱
>>> # Get imagenet class mappings
>>> url, filename = ("https://raw.githubusercontent.com/pytorch/hub/master/imagenet_classes.txt", "imagenet_classes.txt")
>>> urllib.request.urlretrieve(url, filename)
>>> with open("imagenet_classes.txt", "r") as f:
... categories = [s.strip() for s in f.readlines()]
>>> # Print top categories per image
>>> top5_prob, top5_catid = torch.topk(probabilities, 5)
>>> for i in range(top5_prob.size(0)):
... print(categories[top5_catid[i]], top5_prob[i].item())
>>> # prints class names and probabilities like:
>>> # [('Samoyed', 0.6425196528434753), ('Pomeranian', 0.04062102362513542), ('keeshond', 0.03186424449086189), ('white wolf', 0.01739676296710968), ('Eskimo dog', 0.011717947199940681)]
將模型名稱替換為您要使用的變體,例如 `dla102`。您可以在本頁頂部的模型摘要中找到 ID。
要使用此模型提取影像特徵,請遵循 timm 特徵提取示例,只需更改你想使用的模型名稱。
如何微調此模型?
你可以透過更改分類器(最後一層)來微調任何預訓練模型。
>>> model = timm.create_model('dla102', pretrained=True, num_classes=NUM_FINETUNE_CLASSES)
要在自己的資料集上進行微調,你需要編寫一個訓練迴圈或修改 timm 的訓練指令碼以使用你的資料集。
如何訓練此模型?
你可以按照 timm 食譜指令碼來重新訓練一個新模型。
引用
@misc{yu2019deep,
title={Deep Layer Aggregation},
author={Fisher Yu and Dequan Wang and Evan Shelhamer and Trevor Darrell},
year={2019},
eprint={1707.06484},
archivePrefix={arXiv},
primaryClass={cs.CV}
}