Transformers 文件

Chameleon

Hugging Face's logo
加入 Hugging Face 社群

並獲得增強的文件體驗

開始使用

Chameleon

PyTorch FlashAttention SDPA

概述

Chameleon 模型由 META AI Chameleon 團隊在 Chameleon: Mixed-Modal Early-Fusion Foundation Models 中提出。Chameleon 是一種視覺-語言模型,它使用向量量化對影像進行標記化,從而使模型能夠生成多模態輸出。該模型接收影像和文字作為輸入,包括交錯格式,並生成文字響應。影像生成模組尚未釋出。

論文摘要如下:

我們推出了 Chameleon,這是一個基於早期融合令牌的混合模態模型家族,能夠理解和生成任意序列的影像和文字。我們概述了一種從頭開始的穩定訓練方法、一種對齊方案以及一種為早期融合、基於令牌、混合模態設定量身定製的架構引數化。這些模型在一系列綜合任務中進行了評估,包括視覺問答、影像字幕、文字生成、影像生成和長形式混合模態生成。Chameleon 展示了廣泛而通用的能力,包括在影像字幕任務中達到最先進的效能,在純文字任務中優於 Llama-2,同時與 Mixtral 8x7B 和 Gemini-Pro 等模型具有競爭力,並在單個模型中執行非平凡的影像生成。根據對新的長形式混合模態生成評估(其中提示或輸出包含影像和文字的混合序列)的人工判斷,它還匹配或超過了包括 Gemini Pro 和 GPT-4V 在內的更大模型的效能。Chameleon 標誌著統一建模完整多模態文件的重大進步。

drawing Chameleon 包含一個向量量化器模組,用於將影像轉換為離散令牌。這還允許使用自迴歸轉換器生成影像。摘自原始論文。

此模型由 joaoganteRaushanTurganbay 貢獻。原始程式碼可在此處找到。

使用技巧

  • 我們建議使用者在計算批處理生成時使用 padding_side="left",因為它能帶來更準確的結果。只需確保在生成前將 processor.tokenizer.padding_side = "left" 設定好。

  • 請注意,Chameleon 經過安全對齊調整。如果模型拒絕回答,請考慮提出更具體的問題,而不是開放式問題。

  • Chameleon 以聊天格式生成,這意味著生成的文字將始終是“助手的回答”。您可以透過在呼叫處理器時傳遞 return_for_text_completion=True 來啟用文字補全生成。

[!NOTE] Transformers 中的 Chameleon 實現使用特殊的影像標記來指示何處合併影像嵌入。對於特殊影像標記,我們沒有新增新的,而是使用了保留標記之一:<reserved08707>。您必須在影像應嵌入的位置將 <image> 新增到您的提示中以實現正確生成。

使用示例

單影像推理

Chameleon 是一個門控模型,因此請確保使用令牌訪問並登入 Hugging Face Hub。以下是半精度 (torch.bfloat16) 載入模型並執行推理的方法:

from transformers import ChameleonProcessor, ChameleonForConditionalGeneration
import torch
from PIL import Image
import requests

processor = ChameleonProcessor.from_pretrained("facebook/chameleon-7b")
model = ChameleonForConditionalGeneration.from_pretrained("facebook/chameleon-7b", torch_dtype=torch.bfloat16, device_map="cuda")

# prepare image and text prompt
url = 'http://images.cocodataset.org/val2017/000000039769.jpg'
image = Image.open(requests.get(url, stream=True).raw)
prompt = "What do you see in this image?<image>"

inputs = processor(images=image, text=prompt, return_tensors="pt").to(model.device, dtype=torch.bfloat16)

# autoregressively complete prompt
output = model.generate(**inputs, max_new_tokens=50)
print(processor.decode(output[0], skip_special_tokens=True))

多影像推理

Chameleon 可以使用多幅影像作為輸入進行推理,其中影像可以屬於相同的提示或不同的提示(在批次推理中)。以下是實現方法:

from transformers import ChameleonProcessor, ChameleonForConditionalGeneration
import torch
from PIL import Image
import requests

processor = ChameleonProcessor.from_pretrained("facebook/chameleon-7b")

model = ChameleonForConditionalGeneration.from_pretrained("facebook/chameleon-7b", torch_dtype=torch.bfloat16, device_map="cuda")

# Get three different images
url = "https://www.ilankelman.org/stopsigns/australia.jpg"
image_stop = Image.open(requests.get(url, stream=True).raw)

url = "http://images.cocodataset.org/val2017/000000039769.jpg"
image_cats = Image.open(requests.get(url, stream=True).raw)

url = "https://huggingface.co/microsoft/kosmos-2-patch14-224/resolve/main/snowman.jpg"
image_snowman = Image.open(requests.get(url, stream=True).raw)

# Prepare a batched prompt, where the first one is a multi-image prompt and the second is not
prompts = [
    "What do these images have in common?<image><image>",
    "<image>What is shown in this image?"
]

# We can simply feed images in the order they have to be used in the text prompt
# Each "<image>" token uses one image leaving the next for the subsequent "<image>" tokens
inputs = processor(images=[image_stop, image_cats, image_snowman], text=prompts, padding=True, return_tensors="pt").to(device="cuda", dtype=torch.bfloat16)

# Generate
generate_ids = model.generate(**inputs, max_new_tokens=50)
processor.batch_decode(generate_ids, skip_special_tokens=True, clean_up_tokenization_spaces=False)

模型最佳化

使用 Bitsandbytes 進行量化

模型可以以 8 位或 4 位載入,這大大減少了記憶體需求,同時保持了原始模型的效能。首先,確保安裝 bitsandbytes,pip install bitsandbytes,並確保可以訪問庫支援的 GPU/加速器。

bitsandbytes 正在重構以支援 CUDA 以外的多個後端。目前,ROCm (AMD GPU) 和 Intel CPU 實現已成熟,Intel XPU 正在進行中,Apple Silicon 支援預計將在第四季度/第一季度實現。有關安裝說明和最新的後端更新,請訪問此連結

我們重視您的反饋,以幫助在完整發布之前發現錯誤!請檢視 這些文件 獲取更多詳細資訊和反饋連結。

只需將上面的程式碼片段更改為

from transformers import ChameleonForConditionalGeneration, BitsAndBytesConfig

# specify how to quantize the model
quantization_config = BitsAndBytesConfig(
    load_in_4bit=True,
    bnb_4bit_quant_type="nf4",
    bnb_4bit_compute_dtype=torch.bfloat16,
)

model = ChameleonForConditionalGeneration.from_pretrained("facebook/chameleon-7b", quantization_config=quantization_config, device_map="cuda")

使用 Flash-Attention 2 和 SDPA 進一步加速生成

模型支援 Flash-Attention 2 和 PyTorch 的 torch.nn.functional.scaled_dot_product_attention,可以啟用它們進行最佳化。載入模型時,SDPA 是預設選項。如果要切換到 Flash Attention 2,首先請確保安裝 flash-attn。有關該軟體包的安裝,請參閱原始儲存庫。只需將上述程式碼片段更改為:

from transformers import ChameleonForConditionalGeneration

model_id = "facebook/chameleon-7b"
model = ChameleonForConditionalGeneration.from_pretrained(
    model_id,
    torch_dtype=torch.bfloat16,
    attn_implementation="flash_attention_2"
).to(0)

ChameleonConfig

class transformers.ChameleonConfig

< >

( vocab_size = 65536 hidden_size = 4096 intermediate_size = 11008 num_hidden_layers = 32 num_attention_heads = 32 num_key_value_heads = 32 hidden_act = 'silu' max_position_embeddings = 4096 initializer_range = 0.02 rms_norm_eps = 1e-05 use_cache = True pad_token_id = None bos_token_id = 1 eos_token_id = 2 tie_word_embeddings = False rope_theta = 10000.0 rope_scaling = None attention_bias = False attention_dropout = 0.0 model_parallel_size = 1 swin_norm = False vq_config = None vocabulary_map = None mlp_bias = False **kwargs )

引數

  • vocab_size (int, optional, 預設為 65536) — Chameleon 模型的詞彙表大小。定義了呼叫 ChameleonModel 時傳遞的 inputs_ids 可以表示的不同令牌的數量;這包括文字和影像令牌。
  • hidden_size (int, optional, 預設為 4096) — 隱藏表示的維度。
  • intermediate_size (int, optional, 預設為 11008) — MLP 表示的維度。
  • num_hidden_layers (int, optional, 預設為 32) — Transformer 解碼器中的隱藏層數量。
  • num_attention_heads (int, optional, 預設為 32) — Transformer 解碼器中每個注意力層的注意力頭數。
  • num_key_value_heads (int, optional, 預設為 32) — 用於實現分組查詢注意力的鍵值頭數。如果 num_key_value_heads=num_attention_heads,模型將使用多頭注意力 (MHA),如果 num_key_value_heads=1,模型將使用多查詢注意力 (MQA),否則使用 GQA。將多頭檢查點轉換為 GQA 檢查點時,每個分組鍵和值頭應透過對其組內的所有原始頭進行均值池化來構建。有關更多詳細資訊,請檢視此論文。如果未指定,將預設為 num_attention_heads
  • hidden_act (strfunction, optional, 預設為 "silu") — 解碼器中的非線性啟用函式(函式或字串)。
  • max_position_embeddings (int, optional, 預設為 4096) — 此模型可能使用的最大序列長度。Chameleon 支援多達 4096 個令牌。
  • initializer_range (float, optional, 預設為 0.02) — 用於初始化所有權重矩陣的截斷正態初始化器的標準差。
  • rms_norm_eps (float, optional, 預設為 1e-05) — rms 歸一化層使用的 epsilon。
  • use_cache (bool, optional, 預設為 True) — 模型是否應返回最後一個鍵/值注意力(並非所有模型都使用)。僅當 config.is_decoder=True 時相關。
  • pad_token_id (int, optional) — 填充令牌 ID。
  • bos_token_id (int, optional, 預設為 1) — 流開始令牌 ID。
  • eos_token_id (int, optional, 預設為 2) — 流結束令牌 ID。
  • tie_word_embeddings (bool, optional, 預設為 False) — 是否繫結詞嵌入。
  • rope_theta (float, optional, 預設為 10000.0) — RoPE 嵌入的基期。
  • rope_scaling (Dict, optional) — 包含 RoPE 嵌入縮放配置的字典。目前支援兩種縮放策略:線性和動態。它們的縮放因子必須是大於 1 的浮點數。預期格式為 {"type": 策略名稱, "factor": 縮放因子}。使用此標誌時,請勿將 max_position_embeddings 更新為預期的新最大值。有關這些縮放策略如何表現的更多資訊,請參閱以下討論串:https://www.reddit.com/r/Localchameleon/comments/14mrgpr/dynamically_scaled_rope_further_increases/。這是一個實驗性功能,在未來版本中可能會有破壞性的 API 更改。
  • attention_bias (bool, 預設為 False, optional, 預設為 False) — 在自注意力過程中是否在查詢、鍵、值和輸出投影層中使用偏差。
  • attention_dropout (float, optional, 預設為 0.0) — 注意力機率的 dropout 比率。
  • model_parallel_size (int, optional, 預設為 1) — 訓練模型時使用的分片數量。這將在 qk 層歸一化中使用,因為原始 Chameleon 推理在這些層中沒有進行歸約,並且每個排名都有其自己的偏差。
  • swin_norm (bool, optional, 預設為 False) — 使用 Swin Transformer 歸一化。
  • vq_config (dict, optional) — 包含 VQ-VAE 模型配置的 ChameleonVQConfig 例項。
  • vocabulary_map (dict, optional) — 包含來自分詞器的詞彙表對映的字典。用於從影像輸入中獲取令牌。
  • mlp_bias (bool, optional, 預設為 False) — 在 MLP 層中的 up_proj、down_proj 和 gate_proj 層中是否使用偏差。

這是用於儲存 ChameleonModel 配置的配置類。它用於根據指定引數例項化 Chameleon 模型,定義模型架構。使用預設值例項化配置將生成與 meta/chameleon-7B 類似的配置。

配置物件繼承自 PretrainedConfig,可用於控制模型輸出。有關更多資訊,請閱讀 PretrainedConfig 的文件。

>>> from transformers import ChameleonModel, ChameleonConfig

>>> # Initializing a chameleon chameleon-7b style configuration
>>> configuration = ChameleonConfig()

>>> # Initializing a model from the chameleon-7b style configuration
>>> model = ChameleonModel(configuration)

>>> # Accessing the model configuration
>>> configuration = model.config

ChameleonVQVAEConfig

class transformers.ChameleonVQVAEConfig

< >

( embed_dim: int = 256 num_embeddings: int = 8192 double_latent: bool = False latent_channels: int = 256 resolution: int = 512 in_channels: int = 3 base_channels: int = 128 channel_multiplier: list = [1, 1, 2, 2, 4] num_res_blocks: int = 2 attn_resolutions: typing.Optional[list[int]] = None dropout: float = 0.0 attn_type: str = 'vanilla' initializer_range = 0.02 **kwargs )

引數

  • embed_dim (int, optional, 預設為 256) — 每個嵌入向量的維度。
  • num_embeddings (int, optional, 預設為 8192) — 碼本嵌入的數量。
  • double_latent (bool, optional, 預設為 False) — 是否使用雙 z 通道。
  • latent_channels (int, 可選, 預設為 256) — 潛在空間的通道數。
  • resolution (int, 可選, 預設為 512) — 輸入影像的解析度。
  • in_channels (int, 可選, 預設為 3) — 輸入通道數。
  • base_channels (int, 可選, 預設為 128) — 基本通道數。
  • channel_multiplier (list[int], 可選, 預設為 [1, 1, 2, 2, 4]) — 每個解析度的通道乘數。
  • num_res_blocks (int, 可選, 預設為 2) — 殘差塊的數量。
  • attn_resolutions (list[int], 可選) — 應用注意力機制的解析度。
  • dropout (float, 可選, 預設為 0.0) — Dropout 比率。
  • attn_type (str, 可選, 預設為 "vanilla") — VQ-GAN 編碼器中使用的注意力型別。可以是 "vanilla" 或 None。
  • initializer_range (float, 可選, 預設為 0.02) — 用於初始化所有權重矩陣的截斷正態分佈初始化器的標準差。

這是一個配置類,用於儲存 ChameleonVQModel 的配置。它用於根據指定引數例項化 ChameleonVQModel,從而定義模型架構。配置物件繼承自 PretrainedConfig,可用於控制模型輸出。有關更多資訊,請參閱 PretrainedConfig 的文件。使用預設值例項化配置將產生類似於 meta/chameleon-7B 的 VQModel 配置。

ChameleonProcessor

class transformers.ChameleonProcessor

< >

( image_processor tokenizer image_seq_length: int = 1024 image_token: str = '<image>' )

引數

  • image_processor (ChameleonImageProcessor) — 影像處理器是必需輸入。
  • tokenizer (LlamaTokenizerFast) — 分詞器是必需輸入。
  • image_seq_length (int, 可選, 預設為 1024) — 一個影像嵌入的序列長度。
  • image_token (str, 可選, 預設為 "<image>") — 用於在文字中指示影像的特殊標記。

構建一個 Chameleon 處理器,它將 Chameleon 影像處理器和 Chameleon 分詞器封裝到一個單獨的處理器中。

ChameleonProcessor 提供 ChameleonImageProcessorLlamaTokenizerFast 的所有功能。有關更多資訊,請參閱 __call__()decode()

batch_decode

< >

( *args **kwargs )

此方法將其所有引數轉發給 LlamaTokenizerFast 的 batch_decode()。有關更多資訊,請參閱此方法的文件字串。

decode

< >

( *args **kwargs )

此方法將其所有引數轉發給 LlamaTokenizerFast 的 decode()。有關更多資訊,請參閱此方法的文件字串。

ChameleonImageProcessor

class transformers.ChameleonImageProcessor

< >

( do_resize: bool = True size: typing.Optional[dict[str, int]] = None resample: Resampling = 1 do_center_crop: bool = True crop_size: typing.Optional[dict[str, int]] = None do_rescale: bool = True rescale_factor: typing.Union[int, float] = 0.0078 do_normalize: bool = True image_mean: typing.Union[float, list[float], NoneType] = None image_std: typing.Union[float, list[float], NoneType] = None do_convert_rgb: bool = True **kwargs )

引數

  • do_resize (bool, 可選, 預設為 True) — 是否將影像的 (高度, 寬度) 尺寸調整為指定的 size。可以透過 preprocess 方法中的 do_resize 覆蓋。
  • size (dict[str, int] 可選, 預設為 {"shortest_edge" -- 512}): 調整大小後的影像尺寸。影像的最短邊調整為 size["shortest_edge"],最長邊調整以保持輸入長寬比。可以透過 preprocess 方法中的 size 覆蓋。
  • resample (PILImageResampling, 可選, 預設為 1) — 如果調整影像大小,使用的重取樣過濾器。可以透過 preprocess 方法中的 resample 覆蓋。
  • do_center_crop (bool, 可選, 預設為 True) — 是否將影像中心裁剪到指定的 crop_size。可以透過 preprocess 方法中的 do_center_crop 覆蓋。
  • crop_size (dict[str, int] 可選, 預設為 {“height” — 512, “width”: 512}): 應用 center_crop 後輸出影像的尺寸。可以透過 preprocess 方法中的 crop_size 覆蓋。
  • do_rescale (bool, 可選, 預設為 True) — 是否按指定的比例 rescale_factor 重新縮放影像。可以透過 preprocess 方法中的 do_rescale 覆蓋。
  • rescale_factor (intfloat, 可選, 預設為 0.0078) — 如果重新縮放影像,使用的縮放因子。可以透過 preprocess 方法中的 rescale_factor 覆蓋。
  • do_normalize (bool, 可選, 預設為 True) — 是否對影像進行歸一化。可以透過 preprocess 方法中的 do_normalize 覆蓋。
  • image_mean (floatlist[float], 可選, 預設為 [1.0, 1.0, 1.0]) — 如果對影像進行歸一化,使用的均值。這是一個浮點數或浮點數列表,其長度與影像中的通道數相同。可以透過 preprocess 方法中的 image_mean 引數覆蓋。
  • image_std (floatlist[float], 可選, 預設為 [1.0, 1.0, 1.0]) — 如果對影像進行歸一化,使用的標準差。這是一個浮點數或浮點數列表,其長度與影像中的通道數相同。可以透過 preprocess 方法中的 image_std 引數覆蓋。
  • do_convert_rgb (bool, 可選, 預設為 True) — 是否將影像轉換為 RGB。

構建一個 Chameleon 影像處理器。

preprocess

< >

( images: typing.Union[ForwardRef('PIL.Image.Image'), numpy.ndarray, ForwardRef('torch.Tensor'), list['PIL.Image.Image'], list[numpy.ndarray], list['torch.Tensor']] do_resize: typing.Optional[bool] = None size: typing.Optional[dict[str, int]] = None resample: Resampling = None do_center_crop: typing.Optional[bool] = None crop_size: typing.Optional[int] = None do_rescale: typing.Optional[bool] = None rescale_factor: typing.Optional[float] = None do_normalize: typing.Optional[bool] = None image_mean: typing.Union[float, list[float], NoneType] = None image_std: typing.Union[float, list[float], NoneType] = None do_convert_rgb: typing.Optional[bool] = None return_tensors: typing.Union[str, transformers.utils.generic.TensorType, NoneType] = None data_format: typing.Optional[transformers.image_utils.ChannelDimension] = <ChannelDimension.FIRST: 'channels_first'> input_data_format: typing.Union[str, transformers.image_utils.ChannelDimension, NoneType] = None )

引數

  • images (ImageInput) — 要預處理的影像。期望單個或批處理影像,畫素值範圍從 0 到 255。如果傳入的影像畫素值在 0 到 1 之間,請設定 do_rescale=False
  • do_resize (bool, 可選, 預設為 self.do_resize) — 是否調整影像大小。
  • size (dict[str, int], 可選, 預設為 self.size) — 調整大小後的影像尺寸。影像的最短邊調整為 size["shortest_edge"],最長邊調整以保持輸入長寬比。
  • resample (int, 可選, 預設為 self.resample) — 如果調整影像大小,使用的重取樣過濾器。可以是列舉 PILImageResampling 之一。僅在 do_resize 設定為 True 時有效。
  • do_center_crop (bool, 可選, 預設為 self.do_center_crop) — 是否對影像進行中心裁剪。
  • crop_size (dict[str, int], 可選, 預設為 self.crop_size) — 中心裁剪的尺寸。僅在 do_center_crop 設定為 True 時有效。
  • do_rescale (bool, 可選, 預設為 self.do_rescale) — 是否重新縮放影像。
  • rescale_factor (float, 可選, 預設為 self.rescale_factor) — 如果 do_rescale 設定為 True,用於重新縮放影像的縮放因子。
  • do_normalize (bool, 可選, 預設為 self.do_normalize) — 是否對影像進行歸一化。
  • image_mean (floatlist[float], 可選, 預設為 self.image_mean) — 用於歸一化的影像均值。僅在 do_normalize 設定為 True 時有效。
  • image_std (floatlist[float], 可選, 預設為 self.image_std) — 用於歸一化的影像標準差。僅在 do_normalize 設定為 True 時有效。
  • do_convert_rgb (bool, 可選, 預設為 self.do_convert_rgb) — 是否將影像轉換為 RGB。
  • return_tensors (strTensorType, 可選) — 要返回的張量型別。可以是以下之一:
    • 未設定:返回 np.ndarray 列表。
    • TensorType.TENSORFLOW'tf':返回 tf.Tensor 批次。
    • TensorType.PYTORCH'pt':返回 torch.Tensor 批次。
    • TensorType.NUMPY'np':返回 np.ndarray 批次。
    • TensorType.JAX'jax':返回 jax.numpy.ndarray 批次。
  • data_format (ChannelDimensionstr, 可選, 預設為 ChannelDimension.FIRST) — 輸出影像的通道維度格式。可以是以下之一:
    • "channels_first"ChannelDimension.FIRST:影像為 (num_channels, height, width) 格式。
    • "channels_last"ChannelDimension.LAST:影像為 (height, width, num_channels) 格式。
    • 未設定:使用輸入影像的通道維度格式。
  • input_data_format (ChannelDimensionstr, 可選) — 輸入影像的通道維度格式。如果未設定,通道維度格式將從輸入影像推斷。可以是以下之一:
    • "channels_first"ChannelDimension.FIRST:影像為 (num_channels, height, width) 格式。
    • "channels_last"ChannelDimension.LAST:影像為 (height, width, num_channels) 格式。
    • "none"ChannelDimension.NONE:影像為 (height, width) 格式。

預處理一張或一批影像。

ChameleonVQVAE

class transformers.ChameleonVQVAE

< >

( config: ChameleonVQVAEConfig )

引數

  • config (ChameleonVQVAEConfig) — 模型配置類,包含模型的所有引數。使用配置檔案初始化不會載入與模型相關的權重,只加載配置。請檢視 from_pretrained() 方法以載入模型權重。

Chameleon 中用於將影像編碼/解碼為離散 token 的 VQ-VAE 模型。此模型遵循 Oran Gafni, Adam Polyak, Oron Ashual, Shelly Sheynin, Devi Parikh, and Yaniv Taigman 的論文“Make-a-scene: Scene-based text-to-image generation with human priors”。

此模型繼承自 PreTrainedModel。請檢視超類文件,瞭解庫為其所有模型實現的通用方法(如下載或儲存、調整輸入嵌入大小、修剪頭部等)。

此模型也是 PyTorch torch.nn.Module 子類。將其作為常規 PyTorch 模組使用,並參考 PyTorch 文件以獲取所有與通用用法和行為相關的事項。

_forward_unimplemented

< >

( *input: typing.Any )

定義每次呼叫時執行的計算。

應由所有子類覆蓋。

儘管前向傳播的配方需要在該函式中定義,但之後應該呼叫 Module 例項而不是它,因為前者負責執行註冊的鉤子,而後者則默默地忽略它們。

ChameleonModel

class transformers.ChameleonModel

< >

( config: ChameleonConfig )

引數

  • config (ChameleonConfig) — 模型配置類,包含模型的所有引數。使用配置檔案初始化不會載入與模型相關的權重,只加載配置。請檢視 from_pretrained() 方法以載入模型權重。

原始的 Chameleon 模型,不帶任何特定頭部,直接輸出原始隱藏狀態。

此模型繼承自 PreTrainedModel。請檢視超類文件,瞭解庫為其所有模型實現的通用方法(如下載或儲存、調整輸入嵌入大小、修剪頭部等)。

此模型也是 PyTorch torch.nn.Module 子類。將其作為常規 PyTorch 模組使用,並參考 PyTorch 文件以獲取所有與通用用法和行為相關的事項。

forward

< >

( input_ids: typing.Optional[torch.LongTensor] = None pixel_values: typing.Optional[torch.FloatTensor] = None attention_mask: typing.Optional[torch.Tensor] = None position_ids: typing.Optional[torch.LongTensor] = None past_key_values: typing.Optional[transformers.cache_utils.Cache] = None inputs_embeds: typing.Optional[torch.FloatTensor] = None use_cache: typing.Optional[bool] = None output_attentions: typing.Optional[bool] = None output_hidden_states: typing.Optional[bool] = None return_dict: typing.Optional[bool] = None cache_position: typing.Optional[torch.LongTensor] = None **kwargs: typing_extensions.Unpack[transformers.modeling_flash_attention_utils.FlashAttentionKwargs] ) transformers.modeling_outputs.BaseModelOutputWithPasttuple(torch.FloatTensor)

引數

  • input_ids (torch.LongTensor,形狀為 (batch_size, sequence_length)可選) — 詞彙表中輸入序列標記的索引。預設情況下將忽略填充。

    可以使用 AutoTokenizer 獲取索引。有關詳細資訊,請參見 PreTrainedTokenizer.encode()PreTrainedTokenizer.call()

    什麼是輸入 ID?

  • pixel_values (torch.FloatTensor,形狀為 (batch_size, num_channels, image_size, image_size)可選) — 對應於輸入影像的張量。畫素值可以使用 {image_processor_class} 獲取。有關詳細資訊,請參閱 {image_processor_class}.__call__{processor_class} 使用 {image_processor_class} 處理影像)。
  • attention_mask (torch.Tensor,形狀為 (batch_size, sequence_length)可選) — 避免對填充標記索引執行注意力操作的掩碼。掩碼值選擇範圍為 [0, 1]

    • 1 表示未被遮蔽的標記,
    • 0 表示被遮蔽的標記。

    什麼是注意力掩碼?

  • position_ids (torch.LongTensor,形狀為 (batch_size, sequence_length)可選) — 每個輸入序列標記在位置嵌入中的位置索引。選擇範圍為 [0, config.n_positions - 1]

    什麼是位置 ID?

  • past_key_values (~cache_utils.Cache可選) — 預計算的隱藏狀態(自注意力塊和交叉注意力塊中的鍵和值),可用於加速順序解碼。這通常包括模型在解碼前期返回的 past_key_values,當 use_cache=Trueconfig.use_cache=True 時。

    允許兩種格式:

    • 一個 Cache 例項,請參閱我們的 kv cache 指南
    • 一個長度為 config.n_layerstuple(torch.FloatTensor) 元組,每個元組包含 2 個形狀為 (batch_size, num_heads, sequence_length, embed_size_per_head) 的張量。這也被稱為傳統快取格式。

    模型將輸出與輸入相同的快取格式。如果未傳入 past_key_values,則將返回傳統快取格式。

    如果使用 past_key_values,使用者可以選擇只輸入形狀為 (batch_size, 1) 的最新 input_ids(那些未將其過去的鍵值狀態提供給此模型的)而不是形狀為 (batch_size, sequence_length) 的所有 input_ids

  • inputs_embeds (torch.FloatTensor,形狀為 (batch_size, sequence_length, hidden_size)可選) — 可選地,除了傳遞 input_ids,您還可以選擇直接傳遞嵌入表示。如果您想對如何將 input_ids 索引轉換為關聯向量擁有比模型內部嵌入查詢矩陣更多的控制權,這將很有用。
  • use_cache (bool, 可選) — 如果設定為 True,將返回 past_key_values 鍵值狀態,可用於加速解碼(請參閱 past_key_values)。
  • output_attentions (bool, 可選) — 是否返回所有注意力層的注意力張量。有關更多詳細資訊,請參閱返回張量下的 attentions
  • output_hidden_states (bool, 可選) — 是否返回所有層的隱藏狀態。有關更多詳細資訊,請參閱返回張量下的 hidden_states
  • return_dict (bool, 可選) — 是否返回 ModelOutput 而不是普通的元組。
  • cache_position (torch.LongTensor,形狀為 (sequence_length)可選) — 描述輸入序列標記在序列中位置的索引。與 position_ids 相反,此張量不受填充影響。它用於在正確位置更新快取並推斷完整的序列長度。

返回

transformers.modeling_outputs.BaseModelOutputWithPasttuple(torch.FloatTensor)

一個 transformers.modeling_outputs.BaseModelOutputWithPast 或一個 torch.FloatTensor 元組(如果傳入 return_dict=False 或當 config.return_dict=False 時),包含根據配置 (ChameleonConfig) 和輸入的不同元素。

  • last_hidden_state (torch.FloatTensor, 形狀為 (batch_size, sequence_length, hidden_size)) — 模型最後一層輸出的隱藏狀態序列。

    如果使用了 past_key_values,則只輸出形狀為 (batch_size, 1, hidden_size) 的序列的最後一個隱藏狀態。

  • past_key_values (Cache, 可選,當傳入 use_cache=True 或當 config.use_cache=True 時返回) — 它是一個 Cache 例項。有關更多詳細資訊,請參閱我們的 kv cache 指南

    包含預計算的隱藏狀態(自注意力塊中的鍵和值,如果 config.is_encoder_decoder=True,則可選包含交叉注意力塊中的鍵和值),可用於(參見 past_key_values 輸入)加速順序解碼。

  • hidden_states (tuple(torch.FloatTensor), 可選,當傳入 output_hidden_states=True 或當 config.output_hidden_states=True 時返回) — torch.FloatTensor 元組(如果模型有嵌入層,則其中一個用於嵌入輸出,加上每個層輸出一個),形狀為 (batch_size, sequence_length, hidden_size)

    模型在每個層輸出的隱藏狀態以及可選的初始嵌入輸出。

  • attentions (tuple(torch.FloatTensor), 可選,當傳入 output_attentions=True 或當 config.output_attentions=True 時返回) — torch.FloatTensor 元組(每個層一個),形狀為 (batch_size, num_heads, sequence_length, sequence_length)

    注意力 softmax 後的注意力權重,用於計算自注意力頭中的加權平均值。

ChameleonModel 的 forward 方法,重寫了 __call__ 特殊方法。

儘管前向傳播的實現需要在該函式中定義,但此後應呼叫 Module 例項而非此函式,因為前者負責執行預處理和後處理步驟,而後者則默默地忽略它們。

ChameleonForConditionalGeneration

transformers.ChameleonForConditionalGeneration

< >

( config )

引數

Chameleon 模型,頂部帶有一個用於輸出下一個標記預測的 logits 的頭部。

此模型繼承自 PreTrainedModel。請檢視超類文件,瞭解庫為其所有模型實現的通用方法(如下載或儲存、調整輸入嵌入大小、修剪頭部等)。

此模型也是 PyTorch torch.nn.Module 子類。將其作為常規 PyTorch 模組使用,並參考 PyTorch 文件以獲取所有與通用用法和行為相關的事項。

forward

< >

( input_ids: typing.Optional[torch.LongTensor] = None pixel_values: typing.Optional[torch.FloatTensor] = None attention_mask: typing.Optional[torch.Tensor] = None position_ids: typing.Optional[torch.LongTensor] = None past_key_values: typing.Optional[transformers.cache_utils.Cache] = None inputs_embeds: typing.Optional[torch.FloatTensor] = None labels: typing.Optional[torch.LongTensor] = None use_cache: typing.Optional[bool] = None output_attentions: typing.Optional[bool] = None output_hidden_states: typing.Optional[bool] = None cache_position: typing.Optional[torch.LongTensor] = None **kwargs: typing_extensions.Unpack[transformers.models.chameleon.modeling_chameleon.KwargsForCausalLM] ) transformers.modeling_outputs.CausalLMOutputWithPasttuple(torch.FloatTensor)

引數

  • input_ids (torch.LongTensor,形狀為 (batch_size, sequence_length)可選) — 詞彙表中輸入序列標記的索引。預設情況下將忽略填充。

    可以使用 AutoTokenizer 獲取索引。有關詳細資訊,請參見 PreTrainedTokenizer.encode()PreTrainedTokenizer.call()

    什麼是輸入 ID?

  • pixel_values (torch.FloatTensor,形狀為 (batch_size, num_channels, image_size, image_size)可選) — 對應於輸入影像的張量。畫素值可以使用 {image_processor_class} 獲取。有關詳細資訊,請參閱 {image_processor_class}.__call__{processor_class} 使用 {image_processor_class} 處理影像)。
  • attention_mask (torch.Tensor,形狀為 (batch_size, sequence_length)可選) — 避免對填充標記索引執行注意力操作的掩碼。掩碼值選擇範圍為 [0, 1]

    • 1 表示未被遮蔽的標記,
    • 0 表示被遮蔽的標記。

    什麼是注意力掩碼?

  • position_ids (torch.LongTensor,形狀為 (batch_size, sequence_length)可選) — 每個輸入序列標記在位置嵌入中的位置索引。選擇範圍為 [0, config.n_positions - 1]

    什麼是位置 ID?

  • past_key_values (~cache_utils.Cache可選) — 預計算的隱藏狀態(自注意力塊和交叉注意力塊中的鍵和值),可用於加速順序解碼。這通常包括模型在解碼前期返回的 past_key_values,當 use_cache=Trueconfig.use_cache=True 時。

    允許兩種格式:

    • 一個 Cache 例項,請參閱我們的 kv cache 指南
    • 一個長度為 config.n_layerstuple(torch.FloatTensor) 元組,每個元組包含 2 個形狀為 (batch_size, num_heads, sequence_length, embed_size_per_head) 的張量。這也被稱為傳統快取格式。

    模型將輸出與輸入相同的快取格式。如果未傳入 past_key_values,則將返回傳統快取格式。

    如果使用 past_key_values,使用者可以選擇只輸入形狀為 (batch_size, 1) 的最新 input_ids(那些未將其過去的鍵值狀態提供給此模型的)而不是形狀為 (batch_size, sequence_length) 的所有 input_ids

  • inputs_embeds (torch.FloatTensor,形狀為 (batch_size, sequence_length, hidden_size)可選) — 可選地,除了傳遞 input_ids,您還可以選擇直接傳遞嵌入表示。如果您想對如何將 input_ids 索引轉換為關聯向量擁有比模型內部嵌入查詢矩陣更多的控制權,這將很有用。
  • labels (torch.LongTensor,形狀為 (batch_size, sequence_length)可選) — 用於計算遮罩語言建模損失的標籤。索引應在 [0, ..., config.vocab_size] 或 -100 之間(參見 input_ids 文件字串)。索引設定為 -100 的標記將被忽略(遮蔽),損失僅針對標籤在 [0, ..., config.vocab_size] 之間的標記計算。
  • use_cache (bool, 可選) — 如果設定為 True,將返回 past_key_values 鍵值狀態,可用於加速解碼(請參閱 past_key_values)。
  • output_attentions (bool, 可選) — 是否返回所有注意力層的注意力張量。有關更多詳細資訊,請參閱返回張量下的 attentions
  • output_hidden_states (bool, 可選) — 是否返回所有層的隱藏狀態。有關更多詳細資訊,請參閱返回張量下的 hidden_states
  • cache_position (torch.LongTensor,形狀為 (sequence_length)可選) — 描述輸入序列標記在序列中位置的索引。與 position_ids 相反,此張量不受填充影響。它用於在正確位置更新快取並推斷完整的序列長度。

返回

transformers.modeling_outputs.CausalLMOutputWithPasttuple(torch.FloatTensor)

一個 transformers.modeling_outputs.CausalLMOutputWithPast 或一個 torch.FloatTensor 元組(如果傳入 return_dict=False 或當 config.return_dict=False 時),包含根據配置 (ChameleonConfig) 和輸入的不同元素。

  • loss (torch.FloatTensor 形狀為 (1,)可選,當提供 labels 時返回) — 語言建模損失(用於下一個 token 預測)。

  • logits (形狀為 (batch_size, sequence_length, config.vocab_size)torch.FloatTensor) — 語言建模頭部的預測分數(SoftMax 之前的每個詞彙標記的分數)。

  • past_key_values (Cache, 可選,當傳入 use_cache=True 或當 config.use_cache=True 時返回) — 它是一個 Cache 例項。有關更多詳細資訊,請參閱我們的 kv cache 指南

    包含預計算的隱藏狀態(自注意力塊中的鍵和值),可用於(參見 past_key_values 輸入)加速順序解碼。

  • hidden_states (tuple(torch.FloatTensor), 可選,當傳入 output_hidden_states=True 或當 config.output_hidden_states=True 時返回) — torch.FloatTensor 元組(如果模型有嵌入層,則其中一個用於嵌入輸出,加上每個層輸出一個),形狀為 (batch_size, sequence_length, hidden_size)

    模型在每個層輸出的隱藏狀態以及可選的初始嵌入輸出。

  • attentions (tuple(torch.FloatTensor), 可選,當傳入 output_attentions=True 或當 config.output_attentions=True 時返回) — torch.FloatTensor 元組(每個層一個),形狀為 (batch_size, num_heads, sequence_length, sequence_length)

    注意力 softmax 後的注意力權重,用於計算自注意力頭中的加權平均值。

ChameleonForConditionalGeneration 的 forward 方法,重寫了 __call__ 特殊方法。

儘管前向傳播的實現需要在該函式中定義,但此後應呼叫 Module 例項而非此函式,因為前者負責執行預處理和後處理步驟,而後者則默默地忽略它們。

示例

>>> from transformers import ChameleonProcessor, ChameleonForConditionalGeneration
>>> import torch
>>> import requests
>>> from PIL import Image

>>> model = ChameleonForConditionalGeneration.from_pretrained("facebook/chameleon-7b", torch_dtype=torch.bfloat16)
>>> processor = ChameleonProcessor.from_pretrained("facebook/chameleon-7b")

>>> prompt = "I used to know a lot about constellations when I was younger, but as I grew older, I forgot most of what I knew. These are the only two constellations that I really remember now.<image><image>I would like for you to tell me about 3 more constellations and give me a little bit of history about the constellation."
>>> image = Image.open(requests.get("https://nineplanets.org/wp-content/uploads/2020/12/the-big-dipper-1.jpg", stream=True).raw)
>>> image_2 = Image.open(requests.get("https://www.kxan.com/wp-content/uploads/sites/40/2020/10/ORION.jpg", stream=True).raw)

>>> inputs = processor(images=[image, image_2], text=prompt, return_tensors="pt").to(model.device, torch.bfloat16)

>>> generated_ids = model.generate(**inputs, max_new_tokens=100, do_sample=False)
>>> processor.batch_decode(generated_ids, skip_special_tokens=True)[0]
< > 在 GitHub 上更新

© . This site is unofficial and not affiliated with Hugging Face, Inc.