Transformers 文件
BLIP-2
並獲得增強的文件體驗
開始使用
BLIP-2
概述
BLIP-2 模型由 Junnan Li、Dongxu Li、Silvio Savarese、Steven Hoi 在BLIP-2: Bootstrapping Language-Image Pre-training with Frozen Image Encoders and Large Language Models 中提出。BLIP-2 透過在凍結的預訓練影像編碼器和大型語言模型 (LLM) 之間訓練一個輕量級的 12 層 Transformer 編碼器來利用它們,在各種視覺語言任務上實現了最先進的效能。最值得注意的是,BLIP-2 在零樣本 VQAv2 上比具有 800 億引數的 Flamingo 模型提高了 8.7%,而可訓練引數數量減少了 54 倍。
論文摘要如下:
由於大型模型的端到端訓練,視覺語言預訓練的成本變得越來越高。本文提出了 BLIP-2,一種通用且高效的預訓練策略,它從現成的凍結預訓練影像編碼器和凍結大型語言模型中引導視覺語言預訓練。BLIP-2 透過一個輕量級的查詢 Transformer 來彌合模態差距,該 Transformer 分兩個階段進行預訓練。第一階段從凍結影像編碼器中引導視覺語言表示學習。第二階段從凍結語言模型中引導視覺到語言的生成學習。儘管可訓練引數比現有方法少得多,BLIP-2 在各種視覺語言任務上仍取得了最先進的效能。例如,我們的模型在零樣本 VQAv2 上比 Flamingo80B 高出 8.7%,而可訓練引數減少了 54 倍。我們還展示了該模型零樣本影像到文字生成的新興能力,可以遵循自然語言指令。

使用技巧
- BLIP-2 可用於給定影像和可選文字提示的條件文字生成。在推理時,建議使用
generate
方法。 - 可以使用 Blip2Processor 來準備模型影像,並將預測的 token ID 解碼迴文本。
[!注意] BLIP 模型在 v4.46 版本之後將發出關於新增
processor.num_query_tokens = {{num_query_tokens}}
並擴充套件模型嵌入層以新增特殊<image>
token 的警告。強烈建議,如果您擁有模型檢查點,請將這些屬性新增到處理器中,如果不是您的,則開啟一個 PR。新增這些屬性意味著 BLIP 將新增每張影像所需的查詢 token 數量,並用與查詢 token 數量一樣多的<image>
佔位符擴充套件文字。通常每張影像大約有 500 個 token,因此請確保文字未被截斷,否則在合併嵌入時將失敗。這些屬性可以從模型配置中獲取,作為model.config.num_query_tokens
,模型嵌入擴充套件可以透過遵循此連結完成。
資源
官方 Hugging Face 和社群 (由 🌎 表示) 資源列表,可幫助您開始使用 BLIP-2。
- BLIP-2 用於影像字幕、視覺問答 (VQA) 和類似聊天的對話的演示筆記本可以在此處找到。
如果您有興趣在此處提交資源,請隨時開啟 Pull Request,我們將對其進行審查!該資源最好能展示一些新內容,而不是重複現有資源。
Blip2Config
class transformers.Blip2Config
< 來源 >( vision_config = None qformer_config = None text_config = None num_query_tokens = 32 image_text_hidden_size = 256 image_token_index = None **kwargs )
引數
- vision_config (
dict
, 可選) — 用於初始化 Blip2VisionConfig 的配置選項字典。 - qformer_config (
dict
, 可選) — 用於初始化 Blip2QFormerConfig 的配置選項字典。 - text_config (
dict
, 可選) — 用於初始化任何 PretrainedConfig 的配置選項字典。 - num_query_tokens (
int
, 可選, 預設為 32) — 透過 Transformer 的查詢 token 數量。 - image_text_hidden_size (
int
, 可選, 預設為 256) — 影像文字融合層的隱藏狀態維度。 - image_token_index (
int
, 可選) — 特殊影像 token 的 token 索引。 - kwargs (可選) — 關鍵字引數字典。
Blip2Config 是用於儲存 Blip2ForConditionalGeneration 配置的配置類。它用於根據指定引數例項化 BLIP-2 模型,定義視覺模型、Q-Former 模型和語言模型配置。使用預設值例項化配置將產生與 BLIP-2 Salesforce/blip2-opt-2.7b 架構類似的配置。
配置物件繼承自 PretrainedConfig,可用於控制模型輸出。有關更多資訊,請閱讀 PretrainedConfig 的文件。
示例
>>> from transformers import (
... Blip2VisionConfig,
... Blip2QFormerConfig,
... OPTConfig,
... Blip2Config,
... Blip2ForConditionalGeneration,
... )
>>> # Initializing a Blip2Config with Salesforce/blip2-opt-2.7b style configuration
>>> configuration = Blip2Config()
>>> # Initializing a Blip2ForConditionalGeneration (with random weights) from the Salesforce/blip2-opt-2.7b style configuration
>>> model = Blip2ForConditionalGeneration(configuration)
>>> # Accessing the model configuration
>>> configuration = model.config
>>> # We can also initialize a Blip2Config from a Blip2VisionConfig, Blip2QFormerConfig and any PretrainedConfig
>>> # Initializing BLIP-2 vision, BLIP-2 Q-Former and language model configurations
>>> vision_config = Blip2VisionConfig()
>>> qformer_config = Blip2QFormerConfig()
>>> text_config = OPTConfig()
>>> config = Blip2Config.from_text_vision_configs(vision_config, qformer_config, text_config)
from_vision_qformer_text_configs
< 來源 >( vision_config: Blip2VisionConfig qformer_config: Blip2QFormerConfig text_config: typing.Optional[transformers.configuration_utils.PretrainedConfig] = None **kwargs ) → Blip2Config
引數
- vision_config (
dict
) — 用於初始化 Blip2VisionConfig 的配置選項字典。 - qformer_config (
dict
) — 用於初始化 Blip2QFormerConfig 的配置選項字典。 - text_config (
dict
, 可選) — 用於初始化任何 PretrainedConfig 的配置選項字典。
返回
一個配置物件的例項
從 BLIP-2 視覺模型、Q-Former 和語言模型配置例項化 Blip2Config (或派生類)。
Blip2VisionConfig
class transformers.Blip2VisionConfig
< 來源 >( hidden_size = 1408 intermediate_size = 6144 num_hidden_layers = 39 num_attention_heads = 16 image_size = 224 patch_size = 14 hidden_act = 'gelu' layer_norm_eps = 1e-06 attention_dropout = 0.0 initializer_range = 1e-10 qkv_bias = True **kwargs )
引數
- hidden_size (
int
, 可選, 預設為 1408) — 編碼器層和池化層的維度。 - intermediate_size (
int
, 可選, 預設為 6144) — Transformer 編碼器中“中間”(即前饋)層的維度。 - num_hidden_layers (
int
, 可選, 預設為 39) — Transformer 編碼器中的隱藏層數量。 - num_attention_heads (
int
, 可選, 預設為 16) — Transformer 編碼器中每個注意力層的注意力頭數量。 - image_size (
int
, 可選, 預設為 224) — 每張影像的大小(解析度)。 - patch_size (
int
, 可選, 預設為 14) — 每個補丁的大小(解析度)。 - hidden_act (
str
或function
, 可選, 預設為"gelu"
) — 編碼器和池化器中的非線性啟用函式(函式或字串)。如果為字串,支援"gelu"
、"relu"
、"selu"
和"gelu_new"
"gelu"
。layer_norm_eps (float
, 可選, 預設為 1e-5): 層歸一化層使用的 epsilon。 - attention_dropout (
float
, 可選, 預設為 0.0) — 注意力機率的 dropout 比率。 - initializer_range (
float
, 可選, 預設為 0.02) — 用於初始化所有權重矩陣的 truncated_normal_initializer 的標準差。 - qkv_bias (
bool
, 可選, 預設為True
) — 是否在自注意力層中為查詢和值新增偏差。
這是用於儲存 Blip2VisionModel 配置的配置類。它用於根據指定引數例項化 BLIP-2 視覺編碼器,定義模型架構。例項化預設配置將產生與 BLIP-2 Salesforce/blip2-opt-2.7b 架構類似的配置。
配置物件繼承自 PretrainedConfig,可用於控制模型輸出。有關更多資訊,請閱讀 PretrainedConfig 的文件。
示例
>>> from transformers import Blip2VisionConfig, Blip2VisionModel
>>> # Initializing a Blip2VisionConfig with Salesforce/blip2-opt-2.7b style configuration
>>> configuration = Blip2VisionConfig()
>>> # Initializing a Blip2VisionModel (with random weights) from the Salesforce/blip2-opt-2.7b style configuration
>>> model = Blip2VisionModel(configuration)
>>> # Accessing the model configuration
>>> configuration = model.config
Blip2QFormerConfig
class transformers.Blip2QFormerConfig
< 來源 >( vocab_size = 30522 hidden_size = 768 num_hidden_layers = 12 num_attention_heads = 12 intermediate_size = 3072 hidden_act = 'gelu' hidden_dropout_prob = 0.1 attention_probs_dropout_prob = 0.1 max_position_embeddings = 512 initializer_range = 0.02 layer_norm_eps = 1e-12 pad_token_id = 0 position_embedding_type = 'absolute' cross_attention_frequency = 2 encoder_hidden_size = 1408 use_qformer_text_input = False **kwargs )
引數
- vocab_size (
int
, 可選, 預設為 30522) — Q-Former 模型的詞彙表大小。定義了呼叫模型時inputs_ids
可以表示的不同 token 的數量。 - hidden_size (
int
, 可選, 預設為 768) — 編碼器層和池化層的維度。 - num_hidden_layers (
int
, 可選, 預設為 12) — Transformer 編碼器中的隱藏層數量。 - num_attention_heads (
int
, 可選, 預設為 12) — Transformer 編碼器中每個注意力層的注意力頭數量。 - intermediate_size (
int
, 可選, 預設為 3072) — Transformer 編碼器中“中間”(通常稱為前饋)層的維度。 - hidden_act (
str
或Callable
, 可選, 預設為"gelu"
) — 編碼器和池化器中的非線性啟用函式(函式或字串)。如果為字串,支援"gelu"
、"relu"
、"silu"
和"gelu_new"
。 - hidden_dropout_prob (
float
, 可選, 預設為 0.1) — 嵌入、編碼器和池化器中所有全連線層的 dropout 機率。 - attention_probs_dropout_prob (
float
, 可選, 預設為 0.1) — 注意力機率的 dropout 比率。 - max_position_embeddings (
int
, 可選, 預設為 512) — 該模型可能使用的最大序列長度。通常為了以防萬一設定為較大值(例如 512 或 1024 或 2048)。 - initializer_range (
float
, 可選, 預設為 0.02) — 用於初始化所有權重矩陣的 truncated_normal_initializer 的標準差。 - layer_norm_eps (
float
, 可選, 預設為 1e-12) — 層歸一化層使用的 epsilon。 - pad_token_id (
int
, optional, defaults to 0) — 用於填充標記的索引。 - position_embedding_type (
str
, optional, defaults to"absolute"
) — 位置嵌入的型別。選擇"absolute"
、"relative_key"
、"relative_key_query"
之一。對於位置嵌入,請使用"absolute"
。有關"relative_key"
的更多資訊,請參閱 Self-Attention with Relative Position Representations (Shaw et al.)。有關"relative_key_query"
的更多資訊,請參閱 Improve Transformer Models with Better Relative Position Embeddings (Huang et al.) 中的 *方法 4*。 - cross_attention_frequency (
int
, optional, defaults to 2) — 向 Transformer 層新增交叉注意的頻率。 - encoder_hidden_size (
int
, optional, defaults to 1408) — 用於交叉注意的隱藏狀態的隱藏大小。 - use_qformer_text_input (
bool
, optional, defaults toFalse
) — 是否使用 BERT 風格的嵌入。
這是配置類,用於儲存 Blip2QFormerModel 的配置。它用於根據指定引數例項化 BLIP-2 查詢 Transformer (Q-Former) 模型,定義模型架構。使用預設值例項化配置將生成與 BLIP-2 Salesforce/blip2-opt-2.7b 架構類似的配置。配置物件繼承自 PretrainedConfig,可用於控制模型輸出。有關更多資訊,請閱讀 PretrainedConfig 的文件。
請注意,Blip2QFormerModel 與帶交錯交叉注意的 BertLMHeadModel 非常相似。
示例
>>> from transformers import Blip2QFormerConfig, Blip2QFormerModel
>>> # Initializing a BLIP-2 Salesforce/blip2-opt-2.7b style configuration
>>> configuration = Blip2QFormerConfig()
>>> # Initializing a model (with random weights) from the Salesforce/blip2-opt-2.7b style configuration
>>> model = Blip2QFormerModel(configuration)
>>> # Accessing the model configuration
>>> configuration = model.config
Blip2Processor
class transformers.Blip2Processor
< 原始檔 >( image_processor tokenizer num_query_tokens = None **kwargs )
引數
- image_processor (
BlipImageProcessor
) — BlipImageProcessor 的一個例項。影像處理器是必需輸入。 - tokenizer (
AutoTokenizer
) — [‘PreTrainedTokenizer`] 的一個例項。分詞器是必需輸入。 - num_query_tokens (
int
, optional) — Qformer 用作查詢的標記數,應與模型配置中的標記數相同。
構造一個 BLIP-2 處理器,它將 BLIP 影像處理器和 OPT/T5 分詞器包裝成一個單一的處理器。
BlipProcessor 提供 BlipImageProcessor 和 AutoTokenizer 的所有功能。有關更多資訊,請參閱 __call__()
和 decode() 的文件字串。
此方法將其所有引數轉發到 PreTrainedTokenizer 的 batch_decode()。有關更多資訊,請參閱此方法的文件字串。
Blip2VisionModel
class transformers.Blip2VisionModel
< 原始檔 >( config: Blip2VisionConfig )
引數
- config (Blip2VisionConfig) — 包含模型所有引數的模型配置類。用配置檔案初始化不會載入與模型相關的權重,只加載配置。請檢視 from_pretrained() 方法以載入模型權重。
裸 Blip 2 模型,輸出原始隱藏狀態,頂部沒有任何特定頭部。
此模型繼承自 PreTrainedModel。請檢視超類文件,瞭解庫為其所有模型實現的通用方法(例如下載或儲存、調整輸入嵌入大小、修剪頭部等)。
此模型也是 PyTorch torch.nn.Module 子類。將其作為常規 PyTorch 模組使用,並參考 PyTorch 文件以瞭解與通用用法和行為相關的所有事項。
forward
< 原始檔 >( pixel_values: typing.Optional[torch.FloatTensor] = None output_attentions: typing.Optional[bool] = None output_hidden_states: typing.Optional[bool] = None return_dict: typing.Optional[bool] = None interpolate_pos_encoding: bool = False ) → transformers.modeling_outputs.BaseModelOutputWithPooling 或 tuple(torch.FloatTensor)
引數
- pixel_values (形狀為
(batch_size, num_channels, image_size, image_size)
的torch.FloatTensor
,可選) — 對應於輸入影像的張量。畫素值可以使用{image_processor_class}
獲得。有關詳細資訊,請參閱{image_processor_class}.__call__
({processor_class}
使用{image_processor_class}
處理影像)。 - output_attentions (
bool
, 可選) — 是否返回所有注意力層的注意力張量。有關更多詳細資訊,請參閱返回張量下的attentions
。 - output_hidden_states (
bool
, 可選) — 是否返回所有層的隱藏狀態。有關更多詳細資訊,請參閱返回張量下的hidden_states
。 - return_dict (
bool
, 可選) — 是否返回 ModelOutput 而不是普通的元組。 - interpolate_pos_encoding (
bool
, defaults toFalse
) — 是否插值預訓練的位置編碼。
返回
transformers.modeling_outputs.BaseModelOutputWithPooling 或 tuple(torch.FloatTensor)
一個 transformers.modeling_outputs.BaseModelOutputWithPooling 或 torch.FloatTensor
的元組(如果傳入 return_dict=False
或 config.return_dict=False
),包含根據配置 (Blip2Config) 和輸入的不同元素。
-
last_hidden_state (
torch.FloatTensor
, 形狀為(batch_size, sequence_length, hidden_size)
) — 模型最後一層輸出的隱藏狀態序列。 -
pooler_output (形狀為
(batch_size, hidden_size)
的torch.FloatTensor
) — 經過用於輔助預訓練任務的層進一步處理後,序列的第一個標記(分類標記)的最後一層隱藏狀態。例如,對於 BERT 家族模型,這會在經過線性層和 tanh 啟用函式處理後返回分類標記。線性層權重在預訓練期間根據下一句預測(分類)目標進行訓練。 -
hidden_states (
tuple(torch.FloatTensor)
, 可選,當傳入output_hidden_states=True
或config.output_hidden_states=True
時返回) — 形狀為(batch_size, sequence_length, hidden_size)
的torch.FloatTensor
元組(一個用於嵌入層的輸出,如果模型有嵌入層,+ 每個層的輸出一個)。模型在每個層輸出的隱藏狀態以及可選的初始嵌入輸出。
-
attentions (
tuple(torch.FloatTensor)
, 可選,當傳入output_attentions=True
或config.output_attentions=True
時返回) — 形狀為(batch_size, num_heads, sequence_length, sequence_length)
的torch.FloatTensor
元組(每個層一個)。注意力 softmax 後的注意力權重,用於計算自注意力頭中的加權平均值。
Blip2VisionModel 的 forward 方法,重寫了 __call__
特殊方法。
儘管前向傳播的實現需要在該函式中定義,但之後應呼叫 Module
例項而不是直接呼叫此函式,因為前者負責執行預處理和後處理步驟,而後者會默默地忽略它們。
Blip2QFormerModel
class transformers.Blip2QFormerModel
< 原始檔 >( config: Blip2QFormerConfig )
引數
- config (Blip2QFormerConfig) — 包含模型所有引數的模型配置類。用配置檔案初始化不會載入與模型相關的權重,只加載配置。請檢視 from_pretrained() 方法以載入模型權重。
BLIP-2 查詢 Transformer (Q-Former)。
此模型繼承自 PreTrainedModel。請檢視超類文件,瞭解庫為其所有模型實現的通用方法(例如下載或儲存、調整輸入嵌入大小、修剪頭部等)。
此模型也是 PyTorch torch.nn.Module 子類。將其作為常規 PyTorch 模組使用,並參考 PyTorch 文件以瞭解與通用用法和行為相關的所有事項。
forward
< 原始檔 >( query_embeds: FloatTensor query_length: typing.Optional[int] = None attention_mask: typing.Optional[torch.FloatTensor] = None head_mask: typing.Optional[torch.FloatTensor] = None encoder_hidden_states: typing.Optional[torch.FloatTensor] = None encoder_attention_mask: typing.Optional[torch.FloatTensor] = None past_key_values: typing.Optional[tuple[tuple[torch.FloatTensor]]] = None use_cache: typing.Optional[bool] = None output_attentions: typing.Optional[bool] = None output_hidden_states: typing.Optional[bool] = None return_dict: typing.Optional[bool] = None ) → transformers.modeling_outputs.BaseModelOutputWithPoolingAndCrossAttentions 或 tuple(torch.FloatTensor)
引數
- query_embeds (形狀為
(batch_size, sequence_length, hidden_size)
的torch.FloatTensor
) — 用於注意力計算的隱藏狀態。如果是交叉注意力,將用於查詢(即,鍵和值將使用 encoder_hidden_states)。 - query_length (
int
, 可選) — 查詢的長度,通常基於查詢標記的數量。如果未提供值,query_length 將由 query_embeds 推斷。 - attention_mask (形狀為
(batch_size, sequence_length)
的torch.FloatTensor
,可選) — 遮罩,用於避免在填充標記索引上執行注意力。遮罩值選擇為[0, 1]
:- 1 表示標記未被遮罩,
- 0 表示標記被遮罩。
- head_mask (形狀為
(num_heads,)
或(num_layers, num_heads)
的torch.FloatTensor
,可選) — 用於使自注意力模組的選定頭部無效的遮罩。遮罩值選擇為[0, 1]
:- 1 表示頭部未被遮罩,
- 0 表示頭部被遮罩。
- encoder_hidden_states (形狀為
(batch_size, sequence_length, hidden_size)
的torch.FloatTensor
,可選) — 編碼器最後一層輸出的隱藏狀態序列。如果模型配置為解碼器,則用於交叉注意力。 - encoder_attention_mask (形狀為
(batch_size, sequence_length)
的torch.FloatTensor
,可選) — 用於避免在編碼器輸入填充標記索引上執行注意力的遮罩。如果模型配置為解碼器,則此遮罩在交叉注意力中使用。遮罩值選擇為[0, 1]
:- 1 表示標記未被遮罩,
- 0 表示標記被遮罩。
- past_key_values (
tuple[tuple[torch.FloatTensor]]
, 可選) — 預先計算的隱藏狀態(自注意力塊和交叉注意力塊中的鍵和值),可用於加速順序解碼。這通常包括模型在解碼上一階段返回的past_key_values
,當use_cache=True
或config.use_cache=True
時。允許兩種格式:
- 一個 Cache 例項,請參閱我們的 kv 快取指南;
- 長度為
config.n_layers
的tuple(torch.FloatTensor)
元組,每個元組包含 2 個形狀為(batch_size, num_heads, sequence_length, embed_size_per_head)
的張量。這也被稱為傳統快取格式。
模型將輸出與輸入相同的快取格式。如果未傳入
past_key_values
,將返回傳統快取格式。如果使用
past_key_values
,使用者可以選擇僅輸入最後一個input_ids
(那些沒有將過去的鍵值狀態提供給此模型的)形狀為(batch_size, 1)
,而不是所有input_ids
形狀為(batch_size, sequence_length)
。 - use_cache (
bool
, 可選) — 如果設定為True
,將返回past_key_values
鍵值狀態,可用於加速解碼(參見past_key_values
)。 - output_attentions (
bool
, 可選) — 是否返回所有注意力層的注意力張量。有關更多詳細資訊,請參閱返回張量下的attentions
。 - output_hidden_states (
bool
, 可選) — 是否返回所有層的隱藏狀態。有關更多詳細資訊,請參閱返回張量下的hidden_states
。 - return_dict (
bool
, 可選) — 是否返回 ModelOutput 而不是普通的元組。
返回
transformers.modeling_outputs.BaseModelOutputWithPoolingAndCrossAttentions 或 tuple(torch.FloatTensor)
一個 transformers.modeling_outputs.BaseModelOutputWithPoolingAndCrossAttentions 或 torch.FloatTensor
的元組(如果傳入 return_dict=False
或 config.return_dict=False
),包含根據配置 (Blip2Config) 和輸入的不同元素。
-
last_hidden_state (
torch.FloatTensor
, 形狀為(batch_size, sequence_length, hidden_size)
) — 模型最後一層輸出的隱藏狀態序列。 -
pooler_output (形狀為
(batch_size, hidden_size)
的torch.FloatTensor
) — 經過用於輔助預訓練任務的層進一步處理後,序列的第一個標記(分類標記)的最後一層隱藏狀態。例如,對於 BERT 家族模型,這會在經過線性層和 tanh 啟用函式處理後返回分類標記。線性層權重在預訓練期間根據下一句預測(分類)目標進行訓練。 -
hidden_states (
tuple(torch.FloatTensor)
, 可選,當傳入output_hidden_states=True
或config.output_hidden_states=True
時返回) — 形狀為(batch_size, sequence_length, hidden_size)
的torch.FloatTensor
元組(一個用於嵌入層的輸出,如果模型有嵌入層,+ 每個層的輸出一個)。模型在每個層輸出的隱藏狀態以及可選的初始嵌入輸出。
-
attentions (
tuple(torch.FloatTensor)
, 可選,當傳入output_attentions=True
或config.output_attentions=True
時返回) — 形狀為(batch_size, num_heads, sequence_length, sequence_length)
的torch.FloatTensor
元組(每個層一個)。注意力 softmax 後的注意力權重,用於計算自注意力頭中的加權平均值。
-
cross_attentions (
tuple(torch.FloatTensor)
, 可選, 當傳入output_attentions=True
和config.add_cross_attention=True
或config.output_attentions=True
時返回) — 形狀為(batch_size, num_heads, sequence_length, sequence_length)
的torch.FloatTensor
元組(每個層一個)。解碼器交叉注意力層的注意力權重,在注意力 softmax 之後,用於計算交叉注意力頭中的加權平均。
-
past_key_values (
Cache
, 可選,當傳入use_cache=True
或config.use_cache=True
時返回) — 它是一個 Cache 例項。有關更多詳細資訊,請參閱我們的 kv 快取指南。包含預先計算的隱藏狀態(自注意力塊和可選的交叉注意力塊中的鍵和值,如果
config.is_encoder_decoder=True
),可用於加速順序解碼(參見past_key_values
輸入)。
Blip2QFormerModel 的 forward 方法,重寫了 __call__
特殊方法。
儘管前向傳播的實現需要在該函式中定義,但之後應呼叫 Module
例項而不是直接呼叫此函式,因為前者負責執行預處理和後處理步驟,而後者會默默地忽略它們。
Blip2Model
class transformers.Blip2Model
< 原始檔 >( config: Blip2Config )
引數
- config (Blip2Config) — 包含模型所有引數的模型配置類。用配置檔案初始化不會載入與模型相關的權重,只加載配置。請檢視 from_pretrained() 方法以載入模型權重。
用於生成文字和影像特徵的 BLIP-2 模型。該模型由視覺編碼器、查詢 Transformer (Q-Former) 和語言模型組成。
此模型繼承自 PreTrainedModel。請檢視超類文件,瞭解庫為其所有模型實現的通用方法(例如下載或儲存、調整輸入嵌入大小、修剪頭部等)。
此模型也是 PyTorch torch.nn.Module 子類。將其作為常規 PyTorch 模組使用,並參考 PyTorch 文件以瞭解與通用用法和行為相關的所有事項。
forward
< 原始檔 >( pixel_values: FloatTensor input_ids: FloatTensor attention_mask: typing.Optional[torch.LongTensor] = None decoder_input_ids: typing.Optional[torch.LongTensor] = None decoder_attention_mask: typing.Optional[torch.LongTensor] = None output_attentions: typing.Optional[bool] = None output_hidden_states: typing.Optional[bool] = None labels: typing.Optional[torch.LongTensor] = None return_dict: typing.Optional[bool] = None interpolate_pos_encoding: bool = False **kwargs: typing_extensions.Unpack[transformers.models.blip_2.modeling_blip_2.KwargsForCausalLM] ) → transformers.models.blip_2.modeling_blip_2.Blip2ForConditionalGenerationModelOutput
或 tuple(torch.FloatTensor)
引數
- pixel_values (形狀為
(batch_size, num_channels, image_size, image_size)
的torch.FloatTensor
) — 對應於輸入影像的張量。畫素值可以使用{image_processor_class}
獲得。有關詳細資訊,請參閱{image_processor_class}.__call__
({processor_class}
使用{image_processor_class}
處理影像)。 - input_ids (形狀為
(batch_size, sequence_length)
的torch.LongTensor
,可選) — 語言模型詞彙表中輸入序列標記的索引。可以可選地提供輸入標記作為文字提示,語言模型可以繼續。索引可以使用 Blip2Processor 獲得。有關詳細資訊,請參閱
Blip2Processor.__call__()
。 - attention_mask (形狀為
(batch_size, sequence_length)
的torch.LongTensor
,可選) — 遮罩,用於避免在填充標記索引上執行注意力。遮罩值選擇為[0, 1]
:- 1 表示標記未被遮罩,
- 0 表示標記被遮罩。
- decoder_input_ids (形狀為
(batch_size, target_sequence_length)
的torch.LongTensor
,可選) — 解碼器輸入序列標記在詞彙表中的索引。索引可以使用 AutoTokenizer 獲得。有關詳細資訊,請參閱 PreTrainedTokenizer.encode() 和 PreTrainedTokenizer.__call__()。
- decoder_attention_mask (形狀為
(batch_size, target_sequence_length)
的torch.BoolTensor
,可選) — 預設行為:生成一個忽略decoder_input_ids
中填充標記的張量。預設情況下也將使用因果遮罩。僅當使用編碼器-解碼器語言模型(如 T5)時才相關。
- output_attentions (
bool
, optional) — 是否返回所有注意力層的注意力張量。有關詳細資訊,請參閱返回張量下的attentions
。 - output_hidden_states (
bool
, optional) — 是否返回所有層的隱藏狀態。有關詳細資訊,請參閱返回張量下的hidden_states
。 - labels (
torch.LongTensor
,形狀為(batch_size, sequence_length)
,可選) — 用於計算遮罩語言模型損失的標籤。索引應為[0, ..., config.vocab_size]
或 -100 (參見input_ids
文件字串)。索引設定為-100
的標記將被忽略(遮罩),損失僅針對標籤在[0, ..., config.vocab_size]
中的標記計算。 - return_dict (
bool
, optional) — 是否返回 ModelOutput 而不是普通的元組。 - interpolate_pos_encoding (
bool
, 預設為False
) — 是否對預訓練的位置編碼進行插值。
返回
transformers.models.blip_2.modeling_blip_2.Blip2ForConditionalGenerationModelOutput
或 tuple(torch.FloatTensor)
一個 transformers.models.blip_2.modeling_blip_2.Blip2ForConditionalGenerationModelOutput
或一個 torch.FloatTensor
元組(如果傳遞 return_dict=False
或當 config.return_dict=False
時),包含根據配置 (Blip2Config) 和輸入而變化的各種元素。
- loss (
torch.FloatTensor
, 可選, 當提供labels
時返回, 形狀為(1,)
的torch.FloatTensor
) — 語言模型的語言建模損失。 - logits (形狀為
(batch_size, sequence_length, config.vocab_size)
的torch.FloatTensor
) — 語言模型的語言建模頭部預測分數。 - vision_outputs (
torch.FloatTensor
, 可選, 預設為None
) — 視覺編碼器的輸出。 - qformer_outputs (
tuple[torch.FloatTensor]
, 可選, 預設為None
) — Q-Former(查詢 Transformer)的輸出。 - language_model_outputs (
CausalLMOutputWithPast
或Seq2SeqLMOutput
) — 語言模型的輸出。
Blip2Model
前向方法,覆蓋 __call__
特殊方法。
儘管前向傳播的實現需要在該函式中定義,但之後應呼叫 Module
例項而不是直接呼叫此函式,因為前者負責執行預處理和後處理步驟,而後者會默默地忽略它們。
示例
>>> from PIL import Image
>>> import requests
>>> from transformers import Blip2Processor, Blip2Model
>>> import torch
>>> device = "cuda" if torch.cuda.is_available() else "cpu"
>>> processor = Blip2Processor.from_pretrained("Salesforce/blip2-opt-2.7b")
>>> model = Blip2Model.from_pretrained("Salesforce/blip2-opt-2.7b", torch_dtype=torch.float16)
>>> model.to(device)
>>> url = "http://images.cocodataset.org/val2017/000000039769.jpg"
>>> image = Image.open(requests.get(url, stream=True).raw)
>>> prompt = "Question: how many cats are there? Answer:"
>>> inputs = processor(images=image, text=prompt, return_tensors="pt").to(device, torch.float16)
>>> outputs = model(**inputs)
獲取文字特徵
< 原始碼 >( input_ids: typing.Optional[torch.Tensor] = None attention_mask: typing.Optional[torch.Tensor] = None decoder_input_ids: typing.Optional[torch.Tensor] = None decoder_attention_mask: typing.Optional[torch.Tensor] = None labels: typing.Optional[torch.Tensor] = None output_attentions: typing.Optional[bool] = None output_hidden_states: typing.Optional[bool] = None return_dict: typing.Optional[bool] = None **kwargs: typing_extensions.Unpack[transformers.models.blip_2.modeling_blip_2.KwargsForCausalLM] ) → text_outputs (CausalLMOutputWithPast
, 或 tuple(torch.FloatTensor)
如果 return_dict=False
)
引數
- input_ids (
torch.Tensor
,形狀為(batch_size, sequence_length)
,可選) — 詞彙表中輸入序列標記的索引。預設情況下,填充將被忽略。可以使用 AutoTokenizer 獲取索引。有關詳細資訊,請參閱 PreTrainedTokenizer.encode() 和 PreTrainedTokenizer.call()。
- attention_mask (
torch.Tensor
,形狀為(batch_size, sequence_length)
,可選) — 遮罩,用於避免在填充標記索引上執行注意力。遮罩值在[0, 1]
中選擇:- 1 表示**未遮罩**的標記,
- 0 表示**已遮罩**的標記。
- decoder_input_ids (
torch.LongTensor
,形狀為(batch_size, target_sequence_length)
,可選) — 詞彙表中解碼器輸入序列標記的索引。可以使用 AutoTokenizer 獲取索引。有關詳細資訊,請參閱 PreTrainedTokenizer.encode() 和 PreTrainedTokenizer.call()。
T5 使用
pad_token_id
作為decoder_input_ids
生成的起始標記。如果使用past_key_values
,可以選擇只輸入最後一個decoder_input_ids
(參見past_key_values
)。要了解如何為預訓練準備
decoder_input_ids
,請參閱 T5 訓練。 - decoder_attention_mask (
torch.BoolTensor
,形狀為(batch_size, target_sequence_length)
,可選) — 預設行為:生成一個忽略decoder_input_ids
中填充標記的張量。預設情況下也將使用因果遮罩。 - labels (
torch.Tensor
,形狀為(batch_size, sequence_length)
,可選) — 用於計算遮罩語言模型損失的標籤。索引應為[0, ..., config.vocab_size]
或 -100 (參見input_ids
文件字串)。索引設定為-100
的標記將被忽略(遮罩),損失僅針對標籤在[0, ..., config.vocab_size]
中的標記計算。 - output_attentions (
bool
, 可選) — 是否返回所有注意力層的注意力張量。有關詳細資訊,請參閱返回張量下的attentions
。 - output_hidden_states (
bool
, 可選) — 是否返回所有層的隱藏狀態。有關詳細資訊,請參閱返回張量下的hidden_states
。 - return_dict (
bool
, 可選) — 是否返回 ModelOutput 而不是普通的元組。
返回
text_outputs (CausalLMOutputWithPast
, 或 tuple(torch.FloatTensor)
如果 return_dict=False
)
語言模型輸出。如果 return_dict=True
,輸出將是 CausalLMOutputWithPast
,其中包含語言模型邏輯、過去的鍵值以及如果 output_hidden_states=True
則包含隱藏狀態。
示例
>>> import torch
>>> from transformers import AutoTokenizer, Blip2Model
>>> model = Blip2Model.from_pretrained("Salesforce/blip2-opt-2.7b")
>>> tokenizer = AutoTokenizer.from_pretrained("Salesforce/blip2-opt-2.7b")
>>> inputs = tokenizer(["a photo of a cat"], padding=True, return_tensors="pt")
>>> text_features = model.get_text_features(**inputs)
獲取影像特徵
< 原始碼 >( pixel_values: typing.Optional[torch.FloatTensor] = None output_attentions: typing.Optional[bool] = None output_hidden_states: typing.Optional[bool] = None return_dict: typing.Optional[bool] = None interpolate_pos_encoding: bool = False ) → vision_outputs (BaseModelOutputWithPooling
或 torch.FloatTensor
元組)
引數
- pixel_values (
torch.FloatTensor
,形狀為(batch_size, num_channels, image_size, image_size)
,可選) — 對應於輸入影像的張量。畫素值可以使用{image_processor_class}
獲取。有關詳細資訊,請參閱{image_processor_class}.__call__
({processor_class}
使用{image_processor_class}
處理影像)。 - output_attentions (
bool
, 可選) — 是否返回所有注意力層的注意力張量。有關詳細資訊,請參閱返回張量下的attentions
。 - output_hidden_states (
bool
, 可選) — 是否返回所有層的隱藏狀態。有關詳細資訊,請參閱返回張量下的hidden_states
。 - return_dict (
bool
, 可選) — 是否返回 ModelOutput 而不是普通的元組。 - interpolate_pos_encoding (
bool
, 預設為False
) — 是否對預訓練的位置編碼進行插值。
返回
vision_outputs (BaseModelOutputWithPooling
或 torch.FloatTensor
元組)
視覺模型輸出。如果 return_dict=True
,則輸出是一個 BaseModelOutputWithPooling
,其中包含影像特徵、池化影像特徵,如果 output_hidden_states=True
,則還包含隱藏狀態。
示例
>>> import torch
>>> from PIL import Image
>>> import requests
>>> from transformers import AutoProcessor, Blip2Model
>>> model = Blip2Model.from_pretrained("Salesforce/blip2-opt-2.7b")
>>> processor = AutoProcessor.from_pretrained("Salesforce/blip2-opt-2.7b")
>>> url = "http://images.cocodataset.org/val2017/000000039769.jpg"
>>> image = Image.open(requests.get(url, stream=True).raw)
>>> inputs = processor(images=image, return_tensors="pt")
>>> image_outputs = model.get_image_features(**inputs)
獲取 Q-Former 特徵
< 原始碼 >( pixel_values: typing.Optional[torch.FloatTensor] = None output_attentions: typing.Optional[bool] = None output_hidden_states: typing.Optional[bool] = None return_dict: typing.Optional[bool] = None interpolate_pos_encoding: bool = False ) → vision_outputs (BaseModelOutputWithPooling
或 torch.FloatTensor
元組)
引數
- pixel_values (
torch.FloatTensor
,形狀為(batch_size, num_channels, image_size, image_size)
,可選) — 對應於輸入影像的張量。畫素值可以使用{image_processor_class}
獲取。有關詳細資訊,請參閱{image_processor_class}.__call__
({processor_class}
使用{image_processor_class}
處理影像)。 - output_attentions (
bool
, 可選) — 是否返回所有注意力層的注意力張量。有關詳細資訊,請參閱返回張量下的attentions
。 - output_hidden_states (
bool
, 可選) — 是否返回所有層的隱藏狀態。有關詳細資訊,請參閱返回張量下的hidden_states
。 - return_dict (
bool
, 可選) — 是否返回 ModelOutput 而不是普通的元組。 - interpolate_pos_encoding (
bool
, 預設為False
) — 是否對預訓練的位置編碼進行插值。
返回
vision_outputs (BaseModelOutputWithPooling
或 torch.FloatTensor
元組)
視覺模型輸出。如果 return_dict=True
,則輸出是一個 BaseModelOutputWithPooling
,其中包含影像特徵、池化影像特徵,如果 output_hidden_states=True
,則還包含隱藏狀態。
示例
>>> import torch
>>> from PIL import Image
>>> import requests
>>> from transformers import Blip2Processor, Blip2Model
>>> processor = Blip2Processor.from_pretrained("Salesforce/blip2-opt-2.7b")
>>> model = Blip2Model.from_pretrained("Salesforce/blip2-opt-2.7b")
>>> url = "http://images.cocodataset.org/val2017/000000039769.jpg"
>>> image = Image.open(requests.get(url, stream=True).raw)
>>> inputs = processor(images=image, return_tensors="pt")
>>> qformer_outputs = model.get_qformer_features(**inputs)
Blip2ForConditionalGeneration
class transformers.Blip2ForConditionalGeneration
< 原始碼 >( config: Blip2Config )
引數
- config (Blip2Config) — 包含模型所有引數的模型配置類。使用配置檔案初始化不載入與模型關聯的權重,只加載配置。請檢視 from_pretrained() 方法載入模型權重。
BLIP-2 模型,用於在給定影像和可選文字提示的情況下生成文字。該模型由一個視覺編碼器、一個查詢轉換器(Q-Former)和一個語言模型組成。
可以選擇向模型傳遞 input_ids
作為文字提示,以便語言模型繼續提示。否則,語言模型將從 [BOS] (序列開始) token 開始生成文字。
請注意,Flan-T5 檢查點無法轉換為 float16。它們使用 bfloat16 預訓練。
此模型繼承自 PreTrainedModel。請檢視超類文件,瞭解庫為其所有模型實現的通用方法(例如下載或儲存、調整輸入嵌入大小、修剪頭部等)。
此模型也是 PyTorch torch.nn.Module 子類。將其作為常規 PyTorch 模組使用,並參考 PyTorch 文件以瞭解與通用用法和行為相關的所有事項。
forward
< 原始碼 >( pixel_values: FloatTensor input_ids: FloatTensor attention_mask: typing.Optional[torch.LongTensor] = None decoder_input_ids: typing.Optional[torch.LongTensor] = None decoder_attention_mask: typing.Optional[torch.LongTensor] = None output_attentions: typing.Optional[bool] = None output_hidden_states: typing.Optional[bool] = None labels: typing.Optional[torch.LongTensor] = None return_dict: typing.Optional[bool] = None interpolate_pos_encoding: bool = False use_cache: typing.Optional[bool] = None **kwargs: typing_extensions.Unpack[transformers.models.blip_2.modeling_blip_2.KwargsForCausalLM] ) → transformers.models.blip_2.modeling_blip_2.Blip2ForConditionalGenerationModelOutput
或 tuple(torch.FloatTensor)
引數
- pixel_values (
torch.FloatTensor
,形狀為(batch_size, num_channels, image_size, image_size)
) — 對應於輸入影像的張量。畫素值可以使用{image_processor_class}
獲取。有關詳細資訊,請參閱{image_processor_class}.__call__
({processor_class}
使用{image_processor_class}
處理影像)。 - input_ids (
torch.LongTensor
,形狀為(batch_size, sequence_length)
,可選) — 語言模型詞彙表中輸入序列標記的索引。可以可選地提供輸入標記作為文字提示,語言模型可以繼續生成。可以使用 Blip2Processor 獲取索引。有關詳細資訊,請參閱
Blip2Processor.__call__()
。 - attention_mask (
torch.LongTensor
,形狀為(batch_size, sequence_length)
,可選) — 遮罩,用於避免在填充標記索引上執行注意力。遮罩值在[0, 1]
中選擇:- 1 表示**未遮罩**的標記,
- 0 表示**已遮罩**的標記。
- decoder_input_ids (
torch.LongTensor
,形狀為(batch_size, target_sequence_length)
,可選) — 詞彙表中解碼器輸入序列標記的索引。可以使用 AutoTokenizer 獲取索引。有關詳細資訊,請參閱 PreTrainedTokenizer.encode() 和 PreTrainedTokenizer.call()。
- decoder_attention_mask (
torch.BoolTensor
,形狀為(batch_size, target_sequence_length)
,可選) — 預設行為:生成一個忽略decoder_input_ids
中填充標記的張量。預設情況下也將使用因果遮罩。僅在使用了編碼器-解碼器語言模型(如 T5)時相關。
- output_attentions (
bool
, 可選) — 是否返回所有注意力層的注意力張量。有關詳細資訊,請參閱返回張量下的attentions
。 - output_hidden_states (
bool
, 可選) — 是否返回所有層的隱藏狀態。有關詳細資訊,請參閱返回張量下的hidden_states
。 - labels (
torch.LongTensor
,形狀為(batch_size, sequence_length)
,可選) — 用於計算遮罩語言模型損失的標籤。索引應為[0, ..., config.vocab_size]
或 -100 (參見input_ids
文件字串)。索引設定為-100
的標記將被忽略(遮罩),損失僅針對標籤在[0, ..., config.vocab_size]
中的標記計算。 - return_dict (
bool
, 可選) — 是否返回 ModelOutput 而不是普通的元組。 - interpolate_pos_encoding (
bool
, 預設為False
) — 是否對預訓練的位置編碼進行插值。 - use_cache (
bool
, 可選) — 如果設定為True
,將返回past_key_values
鍵值狀態,可用於加速解碼(參見past_key_values
)。
返回
transformers.models.blip_2.modeling_blip_2.Blip2ForConditionalGenerationModelOutput
或 tuple(torch.FloatTensor)
一個 transformers.models.blip_2.modeling_blip_2.Blip2ForConditionalGenerationModelOutput
或一個 torch.FloatTensor
元組(如果傳遞 return_dict=False
或當 config.return_dict=False
時),包含根據配置 (Blip2Config) 和輸入而變化的各種元素。
- loss (
torch.FloatTensor
, 可選, 當提供labels
時返回, 形狀為(1,)
的torch.FloatTensor
) — 語言模型的語言建模損失。 - logits (形狀為
(batch_size, sequence_length, config.vocab_size)
的torch.FloatTensor
) — 語言模型的語言建模頭部預測分數。 - vision_outputs (
torch.FloatTensor
, 可選, 預設為None
) — 視覺編碼器的輸出。 - qformer_outputs (
tuple[torch.FloatTensor]
, 可選, 預設為None
) — Q-Former(查詢 Transformer)的輸出。 - language_model_outputs (
CausalLMOutputWithPast
或Seq2SeqLMOutput
) — 語言模型的輸出。
Blip2ForConditionalGeneration
前向方法,覆蓋 __call__
特殊方法。
儘管前向傳播的實現需要在該函式中定義,但之後應呼叫 Module
例項而不是直接呼叫此函式,因為前者負責執行預處理和後處理步驟,而後者會默默地忽略它們。
示例
準備處理器、模型和影像輸入
>>> from PIL import Image
>>> import requests
>>> from transformers import Blip2Processor, Blip2ForConditionalGeneration
>>> import torch
>>> device = "cuda" if torch.cuda.is_available() else "cpu"
>>> processor = Blip2Processor.from_pretrained("Salesforce/blip2-opt-2.7b")
>>> model = Blip2ForConditionalGeneration.from_pretrained(
... "Salesforce/blip2-opt-2.7b", load_in_8bit=True, device_map={"": 0}, torch_dtype=torch.float16
... ) # doctest: +IGNORE_RESULT
>>> url = "http://images.cocodataset.org/val2017/000000039769.jpg"
>>> image = Image.open(requests.get(url, stream=True).raw)
影像字幕(不提供文字提示)
>>> inputs = processor(images=image, return_tensors="pt").to(device, torch.float16)
>>> generated_ids = model.generate(**inputs)
>>> generated_text = processor.batch_decode(generated_ids, skip_special_tokens=True)[0].strip()
>>> print(generated_text)
two cats laying on a couch
視覺問答(提示 = 問題)
>>> prompt = "Question: how many cats are there? Answer:"
>>> inputs = processor(images=image, text=prompt, return_tensors="pt").to(device="cuda", dtype=torch.float16)
>>> generated_ids = model.generate(**inputs)
>>> generated_text = processor.batch_decode(generated_ids, skip_special_tokens=True)[0].strip()
>>> print(generated_text)
two
請注意,也支援透過 bitsandbytes 進行 int8 推理。這大大減少了模型使用的記憶體量,同時保持了相同的效能。
>>> model = Blip2ForConditionalGeneration.from_pretrained(
... "Salesforce/blip2-opt-2.7b", load_in_8bit=True, device_map={"": 0}, torch_dtype=torch.bfloat16
... ) # doctest: +IGNORE_RESULT
>>> inputs = processor(images=image, text=prompt, return_tensors="pt").to(device="cuda", dtype=torch.bfloat16)
>>> generated_ids = model.generate(**inputs)
>>> generated_text = processor.batch_decode(generated_ids, skip_special_tokens=True)[0].strip()
>>> print(generated_text)
two
生成
< 原始碼 >( pixel_values: FloatTensor input_ids: typing.Optional[torch.LongTensor] = None attention_mask: typing.Optional[torch.LongTensor] = None interpolate_pos_encoding: bool = False **generate_kwargs ) → captions (列表)
引數
- pixel_values (
torch.FloatTensor
,形狀為 (batch_size, num_channels, height, width)) — 待處理的輸入影像。 - input_ids (
torch.LongTensor
,形狀為 (batch_size, sequence_length),可選) — 用作生成提示的序列。 - attention_mask (
torch.LongTensor
,形狀為 (batch_size, sequence_length),可選) — 遮罩,用於避免在填充標記索引上執行注意力
返回
captions (列表)
一個字串列表,長度為 batch_size * num_captions。
覆蓋 generate
函式,以便能夠將模型用作條件生成器。
Blip2ForImageTextRetrieval
class transformers.Blip2ForImageTextRetrieval
< 原始碼 >( config: Blip2Config )
引數
- config (Blip2Config) — 包含模型所有引數的模型配置類。使用配置檔案初始化不載入與模型關聯的權重,只加載配置。請檢視 from_pretrained() 方法載入模型權重。
BLIP-2 模型,帶有一個視覺和文字投影器,以及頂部的分類頭。該模型用於影像-文字檢索的上下文。給定影像和文字,模型返回文字與影像相關的機率。
此模型繼承自 PreTrainedModel。請檢視超類文件,瞭解庫為其所有模型實現的通用方法(例如下載或儲存、調整輸入嵌入大小、修剪頭部等)。
此模型也是 PyTorch torch.nn.Module 子類。將其作為常規 PyTorch 模組使用,並參考 PyTorch 文件以瞭解與通用用法和行為相關的所有事項。
forward
< 原始碼 >( pixel_values: FloatTensor input_ids: LongTensor attention_mask: typing.Optional[torch.LongTensor] = None use_image_text_matching_head: typing.Optional[bool] = False output_attentions: typing.Optional[bool] = None output_hidden_states: typing.Optional[bool] = None return_dict: typing.Optional[bool] = None ) → transformers.models.blip_2.modeling_blip_2.Blip2ImageTextMatchingModelOutput
或 tuple(torch.FloatTensor)
引數
- pixel_values (
torch.FloatTensor
,形狀為(batch_size, num_channels, image_size, image_size)
) — 對應輸入影像的張量。畫素值可以使用{image_processor_class}
獲取。詳情請參見{image_processor_class}.__call__
({processor_class}
使用{image_processor_class}
處理影像)。 - input_ids (
torch.LongTensor
,形狀為(batch_size, sequence_length)
,可選) — 語言模型詞彙表中輸入序列標記的索引。可以可選地提供輸入標記作為文字提示,語言模型可以繼續。索引可以使用 Blip2Processor 獲取。詳情請參見
Blip2Processor.__call__()
。 - attention_mask (
torch.LongTensor
,形狀為(batch_size, sequence_length)
,可選) — 避免對填充標記索引執行注意力操作的掩碼。掩碼值選擇範圍為[0, 1]
:- 1 表示**未被掩碼**的標記,
- 0 表示**被掩碼**的標記。
- use_image_text_matching_head (
bool
,可選) — 是否返回影像-文字匹配或對比分數。 - output_attentions (
bool
,可選) — 是否返回所有注意力層的注意力張量。詳情請參見返回張量中的attentions
。 - output_hidden_states (
bool
,可選) — 是否返回所有層的隱藏狀態。詳情請參見返回張量中的hidden_states
。 - return_dict (
bool
,可選) — 是否返回 ModelOutput 而不是普通元組。
返回
transformers.models.blip_2.modeling_blip_2.Blip2ImageTextMatchingModelOutput
或 tuple(torch.FloatTensor)
一個 transformers.models.blip_2.modeling_blip_2.Blip2ImageTextMatchingModelOutput
或一個 torch.FloatTensor
元組(如果傳遞 return_dict=False
或 config.return_dict=False
時),其中包含根據配置 (Blip2Config) 和輸入而定的各種元素。
- loss (
torch.FloatTensor
,形狀為(1,)
, 可選, 當return_loss
為True
時返回) — 影像-文字相似度的對比損失。 - logits_per_image (
torch.FloatTensor
,形狀為(image_batch_size, text_batch_size)
) —image_embeds
和text_embeds
之間的縮放點積分數。這表示影像-文字相似度分數。 - logits_per_text (
torch.FloatTensor
,形狀為(text_batch_size, image_batch_size)
) —text_embeds
和image_embeds
之間的縮放點積分數。這表示文字-影像相似度分數。 - text_embeds (
torch.FloatTensor
,形狀為(batch_size, output_dim
) — 透過對池化輸出應用投影層獲得的文字嵌入。 - image_embeds (
torch.FloatTensor
,形狀為(batch_size, output_dim
) — 透過對池化輸出應用投影層獲得的影像嵌入。 - text_model_output (
<class '~modeling_outputs.BaseModelOutputWithPooling'>.text_model_output
,預設為None
) — Blip2QFormerModel 的輸出。 - vision_model_output (
<class '~modeling_outputs.BaseModelOutputWithPooling'>.vision_model_output
,預設為None
) — Blip2VisionModel 的輸出。
Blip2ForImageTextRetrieval 的前向方法,覆蓋 __call__
特殊方法。
儘管前向傳播的實現需要在該函式中定義,但之後應呼叫 Module
例項而不是直接呼叫此函式,因為前者負責執行預處理和後處理步驟,而後者會默默地忽略它們。
示例
>>> import torch
>>> from PIL import Image
>>> import requests
>>> from transformers import AutoProcessor, Blip2ForImageTextRetrieval
>>> device = "cuda" if torch.cuda.is_available() else "cpu"
>>> model = Blip2ForImageTextRetrieval.from_pretrained("Salesforce/blip2-itm-vit-g", torch_dtype=torch.float16)
>>> processor = AutoProcessor.from_pretrained("Salesforce/blip2-itm-vit-g")
>>> model.to(device)
>>> url = "http://images.cocodataset.org/val2017/000000039769.jpg"
>>> image = Image.open(requests.get(url, stream=True).raw)
>>> text = "two cats laying on a pink blanket"
>>> inputs = processor(images=image, text=text, return_tensors="pt").to(device, torch.float16)
>>> itm_out = model(**inputs, use_image_text_matching_head=True)
>>> logits_per_image = torch.nn.functional.softmax(itm_out.logits_per_image, dim=1)
>>> probs = logits_per_image.softmax(dim=1) # we can take the softmax to get the label probabilities
>>> print(f"{probs[0][0]:.1%} that image 0 is not '{text}'")
26.9% that image 0 is not 'two cats laying on a pink blanket'
>>> print(f"{probs[0][1]:.1%} that image 0 is '{text}'")
73.0% that image 0 is 'two cats laying on a pink blanket'
>>> texts = ["a photo of a cat", "a photo of a dog"]
>>> inputs = processor(images=image, text=texts, return_tensors="pt").to(device, torch.float16)
>>> itc_out = model(**inputs, use_image_text_matching_head=False)
>>> logits_per_image = itc_out.logits_per_image # this is the image-text similarity score
>>> probs = logits_per_image.softmax(dim=1) # we can take the softmax to get the label probabilities
>>> print(f"{probs[0][0]:.1%} that image 0 is '{texts[0]}'")
55.3% that image 0 is 'a photo of a cat'
>>> print(f"{probs[0][1]:.1%} that image 0 is '{texts[1]}'")
44.7% that image 0 is 'a photo of a dog'
Blip2TextModelWithProjection
class transformers.Blip2TextModelWithProjection
< 來源 >( config: Blip2Config )
引數
- config (Blip2Config) — 包含模型所有引數的模型配置類。用配置檔案初始化不會載入與模型相關的權重,只加載配置。請查閱 from_pretrained() 方法載入模型權重。
Blip 2 模型,頂部帶有投影層(池化輸出頂部的線性層)。
此模型繼承自 PreTrainedModel。請檢視超類文件,瞭解庫為其所有模型實現的通用方法(例如下載或儲存、調整輸入嵌入大小、修剪頭部等)。
此模型也是 PyTorch torch.nn.Module 子類。將其作為常規 PyTorch 模組使用,並參考 PyTorch 文件以瞭解與通用用法和行為相關的所有事項。
forward
< 來源 >( input_ids: typing.Optional[torch.Tensor] = None attention_mask: typing.Optional[torch.Tensor] = None position_ids: typing.Optional[torch.Tensor] = None output_attentions: typing.Optional[bool] = None output_hidden_states: typing.Optional[bool] = None return_dict: typing.Optional[bool] = None ) → transformers.models.blip_2.modeling_blip_2.Blip2TextModelOutput
或 tuple(torch.FloatTensor)
引數
- input_ids (
torch.Tensor
,形狀為(batch_size, sequence_length)
,可選) — 詞彙表中輸入序列標記的索引。預設情況下將忽略填充。索引可以使用 AutoTokenizer 獲取。詳情請參見 PreTrainedTokenizer.encode() 和 PreTrainedTokenizer.call()。
- attention_mask (
torch.Tensor
,形狀為(batch_size, sequence_length)
,可選) — 避免對填充標記索引執行注意力操作的掩碼。掩碼值選擇範圍為[0, 1]
:- 1 表示**未被掩碼**的標記,
- 0 表示**被掩碼**的標記。
- position_ids (
torch.Tensor
,形狀為(batch_size, sequence_length)
,可選) — 每個輸入序列標記在位置嵌入中的位置索引。選擇範圍為[0, config.n_positions - 1]
。 - output_attentions (
bool
,可選) — 是否返回所有注意力層的注意力張量。詳情請參見返回張量中的attentions
。 - output_hidden_states (
bool
,可選) — 是否返回所有層的隱藏狀態。詳情請參見返回張量中的hidden_states
。 - return_dict (
bool
,可選) — 是否返回 ModelOutput 而不是普通元組。
返回
transformers.models.blip_2.modeling_blip_2.Blip2TextModelOutput
或 tuple(torch.FloatTensor)
一個 transformers.models.blip_2.modeling_blip_2.Blip2TextModelOutput
或一個 torch.FloatTensor
元組(如果傳遞 return_dict=False
或 config.return_dict=False
時),其中包含根據配置 (Blip2Config) 和輸入而定的各種元素。
-
text_embeds (
torch.FloatTensor
,形狀為(batch_size, output_dim)
可選,當模型以with_projection=True
初始化時返回) — 透過對池化輸出應用投影層獲得的文字嵌入。 -
last_hidden_state (形狀為
(batch_size, sequence_length, hidden_size)
的torch.FloatTensor
, 可選,預設為None
) — 模型最後一層輸出的隱藏狀態序列。 -
hidden_states (
tuple[torch.FloatTensor, ...]
,可選,當傳遞output_hidden_states=True
或config.output_hidden_states=True
時返回) —torch.FloatTensor
元組(如果模型有嵌入層,則為一個,加上每個層的輸出),形狀為(batch_size, sequence_length, hidden_size)
。模型在每個層輸出的隱藏狀態以及可選的初始嵌入輸出。
-
attentions (
tuple[torch.FloatTensor, ...]
,可選,當傳遞output_attentions=True
或config.output_attentions=True
時返回) —torch.FloatTensor
元組(每個層一個),形狀為(batch_size, num_heads, sequence_length, sequence_length)
。注意力 softmax 後的注意力權重,用於計算自注意力頭中的加權平均值。
Blip2TextModelWithProjection 的前向方法,覆蓋 __call__
特殊方法。
儘管前向傳播的實現需要在該函式中定義,但之後應呼叫 Module
例項而不是直接呼叫此函式,因為前者負責執行預處理和後處理步驟,而後者會默默地忽略它們。
示例
>>> import torch
>>> from transformers import AutoProcessor, Blip2TextModelWithProjection
>>> device = "cuda" if torch.cuda.is_available() else "cpu"
>>> model = Blip2TextModelWithProjection.from_pretrained(
... "Salesforce/blip2-itm-vit-g", torch_dtype=torch.float16
... )
>>> model.to(device)
>>> processor = AutoProcessor.from_pretrained("Salesforce/blip2-itm-vit-g")
>>> inputs = processor(text=["a photo of a cat", "a photo of a dog"], return_tensors="pt").to(device)
>>> outputs = model(**inputs)
>>> text_embeds = outputs.text_embeds
>>> print(text_embeds.shape)
torch.Size([2, 7, 256])
Blip2VisionModelWithProjection
class transformers.Blip2VisionModelWithProjection
< 來源 >( config: Blip2Config )
引數
- config (Blip2Config) — 包含模型所有引數的模型配置類。用配置檔案初始化不會載入與模型相關的權重,只加載配置。請查閱 from_pretrained() 方法載入模型權重。
Blip 2 模型,頂部帶有投影層(池化輸出頂部的線性層)。
此模型繼承自 PreTrainedModel。請檢視超類文件,瞭解庫為其所有模型實現的通用方法(例如下載或儲存、調整輸入嵌入大小、修剪頭部等)。
此模型也是 PyTorch torch.nn.Module 子類。將其作為常規 PyTorch 模組使用,並參考 PyTorch 文件以瞭解與通用用法和行為相關的所有事項。
forward
< 來源 >( pixel_values: typing.Optional[torch.FloatTensor] = None output_attentions: typing.Optional[bool] = None output_hidden_states: typing.Optional[bool] = None return_dict: typing.Optional[bool] = None ) → transformers.models.blip_2.modeling_blip_2.Blip2VisionModelOutput
或 tuple(torch.FloatTensor)
引數
- pixel_values (
torch.FloatTensor
,形狀為(batch_size, num_channels, image_size, image_size)
,可選) — 對應輸入影像的張量。畫素值可以使用{image_processor_class}
獲取。詳情請參見{image_processor_class}.__call__
({processor_class}
使用{image_processor_class}
處理影像)。 - output_attentions (
bool
,可選) — 是否返回所有注意力層的注意力張量。詳情請參見返回張量中的attentions
。 - output_hidden_states (
bool
,可選) — 是否返回所有層的隱藏狀態。詳情請參見返回張量中的hidden_states
。 - return_dict (
bool
,可選) — 是否返回 ModelOutput 而不是普通元組。
返回
transformers.models.blip_2.modeling_blip_2.Blip2VisionModelOutput
或 tuple(torch.FloatTensor)
一個 transformers.models.blip_2.modeling_blip_2.Blip2VisionModelOutput
或一個 torch.FloatTensor
元組(如果傳遞 return_dict=False
或 config.return_dict=False
時),其中包含根據配置 (Blip2Config) 和輸入而定的各種元素。
-
image_embeds (
torch.FloatTensor
,形狀為(batch_size, output_dim)
可選,當模型以with_projection=True
初始化時返回) — 透過對池化輸出應用投影層獲得的影像嵌入。 -
last_hidden_state (形狀為
(batch_size, sequence_length, hidden_size)
的torch.FloatTensor
, 可選,預設為None
) — 模型最後一層輸出的隱藏狀態序列。 -
hidden_states (
tuple[torch.FloatTensor, ...]
,可選,當傳遞output_hidden_states=True
或config.output_hidden_states=True
時返回) —torch.FloatTensor
元組(如果模型有嵌入層,則為一個,加上每個層的輸出),形狀為(batch_size, sequence_length, hidden_size)
。模型在每個層輸出的隱藏狀態以及可選的初始嵌入輸出。
-
attentions (
tuple[torch.FloatTensor, ...]
,可選,當傳遞output_attentions=True
或config.output_attentions=True
時返回) —torch.FloatTensor
元組(每個層一個),形狀為(batch_size, num_heads, sequence_length, sequence_length)
。注意力 softmax 後的注意力權重,用於計算自注意力頭中的加權平均值。
Blip2VisionModelWithProjection 的前向方法,覆蓋 __call__
特殊方法。
儘管前向傳播的實現需要在該函式中定義,但之後應呼叫 Module
例項而不是直接呼叫此函式,因為前者負責執行預處理和後處理步驟,而後者會默默地忽略它們。
示例
>>> import torch
>>> from PIL import Image
>>> import requests
>>> from transformers import AutoProcessor, Blip2VisionModelWithProjection
>>> device = "cuda" if torch.cuda.is_available() else "cpu"
>>> processor = AutoProcessor.from_pretrained("Salesforce/blip2-itm-vit-g")
>>> model = Blip2VisionModelWithProjection.from_pretrained(
... "Salesforce/blip2-itm-vit-g", torch_dtype=torch.float16
... )
>>> model.to(device)
>>> url = "http://images.cocodataset.org/val2017/000000039769.jpg"
>>> image = Image.open(requests.get(url, stream=True).raw)
>>> inputs = processor(images=image, return_tensors="pt").to(device, torch.float16)
>>> outputs = model(**inputs)
>>> image_embeds = outputs.image_embeds
>>> print(image_embeds.shape)
torch.Size([1, 32, 256])