Transformers 文件
FocalNet
並獲得增強的文件體驗
開始使用
FocalNet
概述
FocalNet 模型由 Jianwei Yang、Chunyuan Li、Xiyang Dai、Lu Yuan、Jianfeng Gao 在 Focal Modulation Networks 中提出。FocalNets 完全用焦點調製機制取代了自注意力(用於 ViT 和 Swin 等模型),用於視覺中的令牌互動建模。作者聲稱 FocalNets 在影像分類、目標檢測和分割任務上以相似的計算成本優於基於自注意力的模型。
論文摘要如下:
我們提出了焦點調製網路(簡稱 FocalNets),其中自注意力(SA)被焦點調製機制完全取代,用於視覺中的令牌互動建模。焦點調製包括三個組成部分:(i) 分層語境化,透過堆疊深度卷積層實現,用於編碼從短距離到長距離的視覺語境;(ii) 門控聚合,根據每個查詢令牌的內容選擇性地聚合語境;以及 (iii) 逐元素調製或仿射變換,將聚合的語境注入到查詢中。大量的實驗表明,FocalNets 在影像分類、目標檢測和分割任務上以相似的計算成本優於最先進的 SA 對應模型(例如 Swin 和 Focal Transformers)。具體而言,FocalNets 的微型和基礎尺寸在 ImageNet-1K 上分別實現了 82.3% 和 83.9% 的 Top-1 準確率。在 ImageNet-22K 上以 224 解析度進行預訓練後,在 224 和 384 解析度微調時,分別達到了 86.5% 和 87.3% 的 Top-1 準確率。當遷移到下游任務時,FocalNets 表現出明顯的優越性。對於使用 Mask R-CNN 的目標檢測,使用 1 倍訓練的 FocalNet base 比 Swin 對應模型高出 2.1 個點,並且已經超過了使用 3 倍計劃訓練的 Swin(49.0 對 48.5)。對於使用 UPerNet 的語義分割,單尺度 FocalNet base 比 Swin 高出 2.4 個點,並且在多尺度下擊敗了 Swin(50.5 對 49.7)。使用大型 FocalNet 和 Mask2former,我們在 ADE20K 語義分割上實現了 58.5 mIoU,在 COCO 全景分割上實現了 57.9 PQ。使用大型 FocalNet 和 DINO,我們在 COCO minival 和 test-dev 上分別實現了 64.3 和 64.4 mAP,在 Swinv2-G 和 BEIT-3 等更大的基於注意力的模型之上建立了新的 SoTA。
FocalNetConfig
class transformers.FocalNetConfig
< 來源 >( image_size = 224 patch_size = 4 num_channels = 3 embed_dim = 96 use_conv_embed = False hidden_sizes = [192, 384, 768, 768] depths = [2, 2, 6, 2] focal_levels = [2, 2, 2, 2] focal_windows = [3, 3, 3, 3] hidden_act = 'gelu' mlp_ratio = 4.0 hidden_dropout_prob = 0.0 drop_path_rate = 0.1 use_layerscale = False layerscale_value = 0.0001 use_post_layernorm = False use_post_layernorm_in_modulation = False normalize_modulator = False initializer_range = 0.02 layer_norm_eps = 1e-05 encoder_stride = 32 out_features = None out_indices = None **kwargs )
引數
- image_size (
int
, 可選, 預設為 224) — 每張影像的大小(解析度)。 - patch_size (
int
, 可選, 預設為 4) — 嵌入層中每個補丁的大小(解析度)。 - num_channels (
int
, 可選, 預設為 3) — 輸入通道數。 - embed_dim (
int
, 可選, 預設為 96) — 補丁嵌入的維度。 - use_conv_embed (
bool
, 可選, 預設為False
) — 是否使用卷積嵌入。作者指出,使用卷積嵌入通常會提高效能,但預設情況下不使用。 - hidden_sizes (
list[int]
, 可選, 預設為[192, 384, 768, 768]
) — 每個階段的維度(隱藏層大小)。 - depths (
list(int)
, 可選, 預設為[2, 2, 6, 2]
) — 編碼器中每個階段的深度(層數)。 - focal_levels (
list(int)
, 可選, 預設為[2, 2, 2, 2]
) — 編碼器中相應階段的每層焦點級別數。 - focal_windows (
list(int)
, 可選, 預設為[3, 3, 3, 3]
) — 編碼器中相應階段的每層焦點視窗大小。 - hidden_act (
str
或function
, 可選, 預設為"gelu"
) — 編碼器中的非線性啟用函式(函式或字串)。如果是字串,支援"gelu"
、"relu"
、"selu"
和"gelu_new"
。 - mlp_ratio (
float
, 可選, 預設為 4.0) — MLP 隱藏維度與嵌入維度之比。 - hidden_dropout_prob (
float
, 可選, 預設為 0.0) — 嵌入層和編碼器中所有全連線層的 dropout 機率。 - drop_path_rate (
float
, 可選, 預設為 0.1) — 隨機深度率。 - use_layerscale (
bool
, 可選, 預設為False
) — 是否在編碼器中使用層縮放。 - layerscale_value (
float
, 可選, 預設為 0.0001) — 層縮放的初始值。 - use_post_layernorm (
bool
, 可選, 預設為False
) — 是否在編碼器中使用後置層歸一化。 - use_post_layernorm_in_modulation (
bool
, 可選, 預設為False
) — 是否在調製層中使用後置層歸一化。 - normalize_modulator (
bool
, 可選, 預設為False
) — 是否對調製器進行歸一化。 - initializer_range (
float
, 可選, 預設為 0.02) — 用於初始化所有權重矩陣的截斷正態初始化器的標準差。 - layer_norm_eps (
float
, 可選, 預設為 1e-05) — 層歸一化層使用的 epsilon。 - encoder_stride (
int
, 可選, 預設為 32) — 用於蒙版影像建模的解碼器頭部中空間解析度增加的因子。 - out_features (
list[str]
, 可選) — 如果用作骨幹網路,要輸出的特徵列表。可以是"stem"
,"stage1"
,"stage2"
等(取決於模型有多少個階段)。如果未設定且out_indices
已設定,則預設為相應的階段。如果未設定且out_indices
未設定,則預設為最後一個階段。必須與stage_names
屬性中定義的順序相同。 - out_indices (
list[int]
, 可選) — 如果用作骨幹網路,要輸出的特徵的索引列表。可以是 0, 1, 2 等(取決於模型有多少個階段)。如果未設定且out_features
已設定,則預設為相應的階段。如果未設定且out_features
未設定,則預設為最後一個階段。必須與stage_names
屬性中定義的順序相同。
這是用於儲存 FocalNetModel 配置的配置類。它用於根據指定的引數例項化 FocalNet 模型,定義模型架構。使用預設值例項化配置將生成類似於 FocalNet microsoft/focalnet-tiny 架構的配置。
配置物件繼承自 PretrainedConfig,可用於控制模型輸出。有關更多資訊,請參閱 PretrainedConfig 的文件。
示例
>>> from transformers import FocalNetConfig, FocalNetModel
>>> # Initializing a FocalNet microsoft/focalnet-tiny style configuration
>>> configuration = FocalNetConfig()
>>> # Initializing a model (with random weights) from the microsoft/focalnet-tiny style configuration
>>> model = FocalNetModel(configuration)
>>> # Accessing the model configuration
>>> configuration = model.config
FocalNetModel
class transformers.FocalNetModel
< 來源 >( config add_pooling_layer = True use_mask_token = False )
引數
- config (FocalNetModel) — 包含模型所有引數的模型配置類。使用配置檔案初始化不會載入與模型關聯的權重,只會載入配置。檢視 from_pretrained() 方法以載入模型權重。
- add_pooling_layer (
bool
, 可選, 預設為True
) — 是否新增池化層。 - use_mask_token (
bool
, 可選, 預設為False
) — 是否使用掩碼令牌進行掩碼影像建模。
裸 Focalnet 模型,輸出原始隱藏狀態,不帶任何特定的頭部。
此模型繼承自 PreTrainedModel。查閱超類文件以瞭解庫為其所有模型實現的通用方法(例如下載或儲存、調整輸入嵌入大小、修剪頭部等)。
此模型也是 PyTorch torch.nn.Module 子類。將其作為常規 PyTorch 模組使用,並參考 PyTorch 文件瞭解所有與通用用法和行為相關的事項。
forward
< 來源 >( pixel_values: typing.Optional[torch.FloatTensor] = None bool_masked_pos: typing.Optional[torch.BoolTensor] = None output_hidden_states: typing.Optional[bool] = None return_dict: typing.Optional[bool] = None ) → transformers.models.focalnet.modeling_focalnet.FocalNetModelOutput
或 tuple(torch.FloatTensor)
引數
- pixel_values (形狀為
(batch_size, num_channels, image_size, image_size)
的torch.FloatTensor
, 可選) — 對應於輸入影像的張量。畫素值可以使用{image_processor_class}
獲取。有關詳細資訊,請參閱{image_processor_class}.__call__
({processor_class}
使用{image_processor_class}
進行影像處理)。 - bool_masked_pos (形狀為
(batch_size, num_patches)
的torch.BoolTensor
) — 布林掩碼位置。指示哪些補丁被掩碼(1)哪些沒有(0)。 - output_hidden_states (
bool
, 可選) — 是否返回所有層的隱藏狀態。有關更多詳細資訊,請參閱返回張量中的hidden_states
。 - return_dict (
bool
, 可選) — 是否返回 ModelOutput 而不是普通的元組。
返回
transformers.models.focalnet.modeling_focalnet.FocalNetModelOutput
或 tuple(torch.FloatTensor)
一個 transformers.models.focalnet.modeling_focalnet.FocalNetModelOutput
或 torch.FloatTensor
元組(如果傳遞 return_dict=False
或 config.return_dict=False
)包含取決於配置 (FocalNetConfig) 和輸入的不同元素。
-
last_hidden_state (形狀為
(batch_size, sequence_length, hidden_size)
的torch.FloatTensor
, 可選,預設為None
) — 模型最後一層輸出的隱藏狀態序列。 -
pooler_output (
torch.FloatTensor
,形狀為(batch_size, hidden_size)
,可選,當傳遞add_pooling_layer=True
時返回) — 最後一層隱藏狀態的平均池化。 -
hidden_states (
tuple[torch.FloatTensor]
, 可選, 當傳入output_hidden_states=True
或config.output_hidden_states=True
時返回) —torch.FloatTensor
元組(如果模型有嵌入層,一個用於嵌入層輸出,+ 一個用於每層輸出),形狀為(batch_size, sequence_length, hidden_size)
。模型在每個層輸出的隱藏狀態以及可選的初始嵌入輸出。
-
reshaped_hidden_states (
tuple(torch.FloatTensor)
, 可選, 當傳入output_hidden_states=True
或config.output_hidden_states=True
時返回) —torch.FloatTensor
元組(一個用於嵌入層輸出 + 一個用於每個階段的輸出),形狀為(batch_size, hidden_size, height, width)
。模型在每層輸出處的隱藏狀態,以及重新調整以包含空間維度的初始嵌入輸出。
FocalNetModel 的前向方法,覆蓋了 __call__
特殊方法。
儘管前向傳播的實現需要在該函式內部定義,但之後應呼叫 Module
例項,而不是該函式,因為前者會處理執行預處理和後處理步驟,而後者會默默忽略它們。
FocalNetForMaskedImageModeling
class transformers.FocalNetForMaskedImageModeling
< 來源 >( config )
引數
- config (FocalNetForMaskedImageModeling) — 包含模型所有引數的模型配置類。使用配置檔案初始化並不會載入與模型相關的權重,只加載配置。請檢視 from_pretrained() 方法來載入模型權重。
FocalNet 模型,頂部帶有一個用於掩碼影像建模的解碼器。
這遵循了與 SimMIM 中相同的實現。
請注意,我們在 examples directory 中提供了一個指令碼,用於在自定義資料上預訓練此模型。
此模型繼承自 PreTrainedModel。查閱超類文件以瞭解庫為其所有模型實現的通用方法(例如下載或儲存、調整輸入嵌入大小、修剪頭部等)。
此模型也是 PyTorch torch.nn.Module 子類。將其作為常規 PyTorch 模組使用,並參考 PyTorch 文件瞭解所有與通用用法和行為相關的事項。
forward
< source >( pixel_values: typing.Optional[torch.FloatTensor] = None bool_masked_pos: typing.Optional[torch.BoolTensor] = None output_hidden_states: typing.Optional[bool] = None return_dict: typing.Optional[bool] = None ) → transformers.models.focalnet.modeling_focalnet.FocalNetMaskedImageModelingOutput
or tuple(torch.FloatTensor)
引數
- pixel_values (形狀為
(batch_size, num_channels, image_size, image_size)
的torch.FloatTensor
,可選) — 對應於輸入影像的張量。畫素值可以使用{image_processor_class}
獲取。有關詳細資訊,請參閱{image_processor_class}.__call__
({processor_class}
使用{image_processor_class}
處理影像)。 - bool_masked_pos (形狀為
(batch_size, num_patches)
的torch.BoolTensor
) — 布林掩碼位置。指示哪些補丁被掩碼 (1),哪些沒有 (0)。 - output_hidden_states (
bool
, 可選) — 是否返回所有層的隱藏狀態。有關更多詳細資訊,請參閱返回張量中的hidden_states
。 - return_dict (
bool
, 可選) — 是否返回 ModelOutput 而不是普通元組。
返回
transformers.models.focalnet.modeling_focalnet.FocalNetMaskedImageModelingOutput
或 tuple(torch.FloatTensor)
一個 transformers.models.focalnet.modeling_focalnet.FocalNetMaskedImageModelingOutput
或一個 torch.FloatTensor
元組(如果傳入 return_dict=False
或 config.return_dict=False
),包含根據配置 (FocalNetConfig) 和輸入的不同元素。
-
loss (
torch.FloatTensor
,形狀為(1,)
,可選,當提供bool_masked_pos
時返回) — 掩碼影像建模 (MLM) 損失。 -
reconstruction (
torch.FloatTensor
,形狀為(batch_size, num_channels, height, width)
) — 重構的畫素值。 -
hidden_states (
tuple[torch.FloatTensor]
, 可選, 當傳入output_hidden_states=True
或config.output_hidden_states=True
時返回) —torch.FloatTensor
元組(如果模型有嵌入層,一個用於嵌入層輸出,+ 一個用於每層輸出),形狀為(batch_size, sequence_length, hidden_size)
。模型在每個層輸出的隱藏狀態以及可選的初始嵌入輸出。
-
reshaped_hidden_states (
tuple(torch.FloatTensor)
, 可選, 當傳入output_hidden_states=True
或config.output_hidden_states=True
時返回) —torch.FloatTensor
元組(一個用於嵌入層輸出 + 一個用於每個階段的輸出),形狀為(batch_size, hidden_size, height, width)
。模型在每層輸出處的隱藏狀態,以及重新調整以包含空間維度的初始嵌入輸出。
FocalNetForMaskedImageModeling 的前向方法,覆蓋了 __call__
特殊方法。
儘管前向傳播的實現需要在該函式內部定義,但之後應呼叫 Module
例項,而不是該函式,因為前者會處理執行預處理和後處理步驟,而後者會默默忽略它們。
示例
>>> from transformers import AutoImageProcessor, FocalNetConfig, FocalNetForMaskedImageModeling
>>> import torch
>>> from PIL import Image
>>> import requests
>>> url = "http://images.cocodataset.org/val2017/000000039769.jpg"
>>> image = Image.open(requests.get(url, stream=True).raw)
>>> image_processor = AutoImageProcessor.from_pretrained("microsoft/focalnet-base-simmim-window6-192")
>>> config = FocalNetConfig()
>>> model = FocalNetForMaskedImageModeling(config)
>>> num_patches = (model.config.image_size // model.config.patch_size) ** 2
>>> pixel_values = image_processor(images=image, return_tensors="pt").pixel_values
>>> # create random boolean mask of shape (batch_size, num_patches)
>>> bool_masked_pos = torch.randint(low=0, high=2, size=(1, num_patches)).bool()
>>> outputs = model(pixel_values, bool_masked_pos=bool_masked_pos)
>>> loss, reconstructed_pixel_values = outputs.loss, outputs.logits
>>> list(reconstructed_pixel_values.shape)
[1, 3, 192, 192]
FocalNetForImageClassification
class transformers.FocalNetForImageClassification
< source >( config )
引數
- config (FocalNetForImageClassification) — 包含模型所有引數的模型配置類。使用配置檔案初始化並不會載入與模型相關的權重,只加載配置。請檢視 from_pretrained() 方法來載入模型權重。
FocalNet 模型,頂部帶有一個影像分類頭(池化輸出頂部的線性層),例如用於 ImageNet。
此模型繼承自 PreTrainedModel。查閱超類文件以瞭解庫為其所有模型實現的通用方法(例如下載或儲存、調整輸入嵌入大小、修剪頭部等)。
此模型也是 PyTorch torch.nn.Module 子類。將其作為常規 PyTorch 模組使用,並參考 PyTorch 文件瞭解所有與通用用法和行為相關的事項。
forward
< source >( pixel_values: typing.Optional[torch.FloatTensor] = None labels: typing.Optional[torch.LongTensor] = None output_hidden_states: typing.Optional[bool] = None return_dict: typing.Optional[bool] = None ) → transformers.models.focalnet.modeling_focalnet.FocalNetImageClassifierOutput
或 tuple(torch.FloatTensor)
引數
- pixel_values (形狀為
(batch_size, num_channels, image_size, image_size)
的torch.FloatTensor
,可選) — 對應於輸入影像的張量。畫素值可以使用{image_processor_class}
獲取。有關詳細資訊,請參閱{image_processor_class}.__call__
({processor_class}
使用{image_processor_class}
處理影像)。 - labels (形狀為
(batch_size,)
的torch.LongTensor
,可選) — 用於計算影像分類/迴歸損失的標籤。索引應在[0, ..., config.num_labels - 1]
範圍內。如果config.num_labels == 1
,則計算迴歸損失(均方誤差損失),如果config.num_labels > 1
,則計算分類損失(交叉熵損失)。 - output_hidden_states (
bool
, 可選) — 是否返回所有層的隱藏狀態。有關更多詳細資訊,請參閱返回張量中的hidden_states
。 - return_dict (
bool
, 可選) — 是否返回 ModelOutput 而不是普通元組。
返回
transformers.models.focalnet.modeling_focalnet.FocalNetImageClassifierOutput
或 tuple(torch.FloatTensor)
一個 transformers.models.focalnet.modeling_focalnet.FocalNetImageClassifierOutput
或一個 torch.FloatTensor
元組(如果傳入 return_dict=False
或 config.return_dict=False
),包含根據配置 (FocalNetConfig) 和輸入的不同元素。
-
loss (形狀為
(1,)
的torch.FloatTensor
,可選,當提供labels
時返回) — 分類損失(如果 config.num_labels==1,則為迴歸損失)。 -
logits (形狀為
(batch_size, config.num_labels)
的torch.FloatTensor
) — 分類(如果 config.num_labels==1,則為迴歸)分數(SoftMax 之前)。 -
hidden_states (
tuple[torch.FloatTensor]
, 可選, 當傳入output_hidden_states=True
或config.output_hidden_states=True
時返回) —torch.FloatTensor
元組(如果模型有嵌入層,一個用於嵌入層輸出,+ 一個用於每層輸出),形狀為(batch_size, sequence_length, hidden_size)
。模型在每個層輸出的隱藏狀態以及可選的初始嵌入輸出。
-
reshaped_hidden_states (
tuple(torch.FloatTensor)
, 可選, 當傳入output_hidden_states=True
或config.output_hidden_states=True
時返回) —torch.FloatTensor
元組(一個用於嵌入層輸出 + 一個用於每個階段的輸出),形狀為(batch_size, hidden_size, height, width)
。模型在每層輸出處的隱藏狀態,以及重新調整以包含空間維度的初始嵌入輸出。
FocalNetForImageClassification 的前向方法,覆蓋了 __call__
特殊方法。
儘管前向傳播的實現需要在該函式內部定義,但之後應呼叫 Module
例項,而不是該函式,因為前者會處理執行預處理和後處理步驟,而後者會默默忽略它們。
示例
>>> from transformers import AutoImageProcessor, FocalNetForImageClassification
>>> import torch
>>> from datasets import load_dataset
>>> dataset = load_dataset("huggingface/cats-image")
>>> image = dataset["test"]["image"][0]
>>> image_processor = AutoImageProcessor.from_pretrained("microsoft/focalnet-tiny")
>>> model = FocalNetForImageClassification.from_pretrained("microsoft/focalnet-tiny")
>>> inputs = image_processor(image, return_tensors="pt")
>>> with torch.no_grad():
... logits = model(**inputs).logits
>>> # model predicts one of the 1000 ImageNet classes
>>> predicted_label = logits.argmax(-1).item()
>>> print(model.config.id2label[predicted_label])
...