Transformers 文件
SqueezeBERT
並獲得增強的文件體驗
開始使用
SqueezeBERT
概述
SqueezeBERT模型由Forrest N. Iandola、Albert E. Shaw、Ravi Krishna和Kurt W. Keutzer在論文 SqueezeBERT: What can computer vision teach NLP about efficient neural networks? 中提出。它是一個類似於BERT模型的雙向Transformer。BERT架構和SqueezeBERT架構之間的關鍵區別在於,SqueezeBERT使用分組卷積來替代Q、K、V和FFN層中的全連線層。
論文摘要如下:
人類每天閱讀和書寫數千億條資訊。此外,由於大型資料集、大型計算系統和更好的神經網路模型的出現,自然語言處理(NLP)技術在理解、校對和組織這些資訊方面取得了重大進展。因此,在眾多應用中部署NLP,幫助網路使用者、社交網路和企業,存在著巨大的機遇。我們特別將智慧手機和其他移動裝置視為大規模部署NLP模型的關鍵平臺。然而,如今高精度的NLP神經網路模型(如BERT和RoBERTa)的計算成本極高,BERT-base在Pixel 3智慧手機上對一段文字進行分類需要1.7秒。在這項工作中,我們觀察到,分組卷積等方法已為計算機視覺網路帶來了顯著的速度提升,但許多這些技術尚未被NLP神經網路設計者採用。我們演示瞭如何用分組卷積替換自注意力層中的幾個操作,並在一種名為SqueezeBERT的新型網路架構中使用了這項技術。SqueezeBERT在Pixel 3上的執行速度比BERT-base快4.3倍,同時在GLUE測試集上取得了有競爭力的準確率。SqueezeBERT的程式碼將會發布。
此模型由 forresti 貢獻。
使用技巧
- SqueezeBERT是一個帶有絕對位置嵌入的模型,因此通常建議在輸入的右側而不是左側進行填充。
- SqueezeBERT類似於BERT,因此依賴於掩碼語言建模(MLM)目標。因此,它在預測掩碼詞元和一般的自然語言理解(NLU)任務上效率很高,但對於文字生成任務並非最佳選擇。使用因果語言建模(CLM)目標訓練的模型在這方面表現更好。
- 為了在序列分類任務上進行微調時獲得最佳結果,建議從 squeezebert/squeezebert-mnli-headless 檢查點開始。
資源
SqueezeBertConfig
class transformers.SqueezeBertConfig
< 來源 >( vocab_size = 30522 hidden_size = 768 num_hidden_layers = 12 num_attention_heads = 12 intermediate_size = 3072 hidden_act = 'gelu' hidden_dropout_prob = 0.1 attention_probs_dropout_prob = 0.1 max_position_embeddings = 512 type_vocab_size = 2 initializer_range = 0.02 layer_norm_eps = 1e-12 pad_token_id = 0 embedding_size = 768 q_groups = 4 k_groups = 4 v_groups = 4 post_attention_groups = 1 intermediate_groups = 4 output_groups = 4 **kwargs )
引數
- vocab_size (
int
,可選,預設為 30522) — SqueezeBERT模型的詞彙表大小。定義了在呼叫SqueezeBertModel時傳入的inputs_ids
可以表示的不同詞元的數量。 - hidden_size (
int
,可選,預設為 768) — 編碼器層和池化層的維度。 - num_hidden_layers (
int
,可選,預設為 12) — Transformer編碼器中的隱藏層數量。 - num_attention_heads (
int
,可選,預設為 12) — Transformer編碼器中每個注意力層的注意力頭數量。 - intermediate_size (
int
,可選,預設為 3072) — Transformer編碼器中“中間層”(通常稱為前饋層)的維度。 - hidden_act (
str
或Callable
,可選,預設為"gelu"
) — 編碼器和池化層中的非線性啟用函式(函式或字串)。如果是字串,支援"gelu"
、"relu"
、"silu"
和"gelu_new"
。 - hidden_dropout_prob (
float
,可選,預設為 0.1) — 嵌入層、編碼器和池化層中所有全連線層的丟棄機率。 - attention_probs_dropout_prob (
float
,可選,預設為 0.1) — 注意力機率的丟棄率。 - max_position_embeddings (
int
,可選,預設為 512) — 此模型可能使用的最大序列長度。通常將其設定為一個較大的值以防萬一(例如,512、1024 或 2048)。 - type_vocab_size (
int
,可選,預設為 2) — 在呼叫BertModel或TFBertModel時傳入的token_type_ids
的詞彙表大小。 - initializer_range (
float
,可選,預設為 0.02) — 用於初始化所有權重矩陣的truncated_normal_initializer的標準差。 - layer_norm_eps (
float
,可選,預設為 1e-12) — - pad_token_id (
int
,可選,預設為 0) — 詞嵌入中用作填充的詞元的 ID。 - embedding_size (
int
,可選,預設為 768) — 詞嵌入向量的維度。 - q_groups (
int
,可選,預設為 4) — Q 層中的分組數。 - k_groups (
int
,可選,預設為 4) — K 層中的分組數。 - v_groups (
int
,可選,預設為 4) — V 層中的分組數。 - post_attention_groups (
int
,可選,預設為 1) — 第一個前饋網路層中的分組數。 - intermediate_groups (
int
,可選,預設為 4) — 第二個前饋網路層中的分組數。 - output_groups (
int
,可選,預設為 4) — 第三個前饋網路層中的分組數。
這是一個配置類,用於儲存SqueezeBertModel的配置。它用於根據指定的引數例項化一個SqueezeBERT模型,定義模型架構。使用預設值例項化配置將產生與SqueezeBERT squeezebert/squeezebert-uncased 架構類似的配置。
配置物件繼承自PretrainedConfig,可用於控制模型輸出。請閱讀PretrainedConfig的文件以獲取更多資訊。
示例
>>> from transformers import SqueezeBertConfig, SqueezeBertModel
>>> # Initializing a SqueezeBERT configuration
>>> configuration = SqueezeBertConfig()
>>> # Initializing a model (with random weights) from the configuration above
>>> model = SqueezeBertModel(configuration)
>>> # Accessing the model configuration
>>> configuration = model.config
SqueezeBertTokenizer
class transformers.SqueezeBertTokenizer
< 來源 >( vocab_file do_lower_case = True do_basic_tokenize = True never_split = None unk_token = '[UNK]' sep_token = '[SEP]' pad_token = '[PAD]' cls_token = '[CLS]' mask_token = '[MASK]' tokenize_chinese_chars = True strip_accents = None clean_up_tokenization_spaces = True **kwargs )
引數
- vocab_file (
str
) — 包含詞彙表的檔案。 - do_lower_case (
bool
, 可選, 預設為True
) — 是否在分詞時將輸入轉換為小寫。 - do_basic_tokenize (
bool
, 可選, 預設為True
) — 是否在 WordPiece 之前執行基本分詞。 - never_split (
Iterable
, 可選) — 在分詞過程中永遠不會被分割的詞元集合。僅在do_basic_tokenize=True
時有效。 - unk_token (
str
, 可選, 預設為"[UNK]"
) — 未知詞元。不在詞彙表中的詞元無法轉換為 ID,將被設定為此詞元。 - sep_token (
str
, 可選, 預設為"[SEP]"
) — 分隔符詞元,用於從多個序列構建一個序列,例如用於序列分類的兩個序列,或用於問答任務的文字和問題。它也用作使用特殊詞元構建的序列的最後一個詞元。 - pad_token (
str
, 可選, 預設為"[PAD]"
) — 用於填充的詞元,例如當批處理不同長度的序列時使用。 - cls_token (
str
, 可選, 預設為"[CLS]"
) — 分類器詞元,用於序列分類任務(對整個序列進行分類,而不是逐詞元分類)。當使用特殊詞元構建序列時,它是序列的第一個詞元。 - mask_token (
str
, 可選, 預設為"[MASK]"
) — 用於掩碼值的詞元。這是在使用掩碼語言建模訓練此模型時使用的詞元。這是模型將嘗試預測的詞元。 - tokenize_chinese_chars (
bool
, 可選, 預設為True
) — 是否對中文字元進行分詞。對於日語,這可能應該被停用(請參閱此 問題)。
- strip_accents (
bool
, 可選) — 是否去除所有重音符號。如果未指定此選項,則將由lowercase
的值決定(與原始 SqueezeBERT 中一樣)。 - clean_up_tokenization_spaces (
bool
, 可選, 預設為True
) — 是否在解碼後清理空格,清理包括移除可能的多餘空格等偽影。
構建一個 SqueezeBERT 分詞器。基於 WordPiece。
此分詞器繼承自 PreTrainedTokenizer,其中包含大部分主要方法。使用者應參考此超類以獲取有關這些方法的更多資訊。
build_inputs_with_special_tokens
< 原始碼 >( token_ids_0: list token_ids_1: typing.Optional[list[int]] = None ) → List[int]
透過連線和新增特殊詞元,從一個序列或一對序列為序列分類任務構建模型輸入。一個 SqueezeBERT 序列具有以下格式:
- 單個序列:
[CLS] X [SEP]
- 序列對:
[CLS] A [SEP] B [SEP]
get_special_tokens_mask
< 原始碼 >( token_ids_0: list token_ids_1: typing.Optional[list[int]] = None already_has_special_tokens: bool = False ) → List[int]
從沒有新增特殊標記的標記列表中檢索序列ID。此方法在使用分詞器prepare_for_model
方法新增特殊標記時呼叫。
create_token_type_ids_from_sequences
< 原始碼 >( token_ids_0: list token_ids_1: typing.Optional[list[int]] = None ) → list[int]
建立與傳入序列對應的標記型別 ID。什麼是標記型別 ID?
如果模型有特殊的構建方式,應在子類中重寫此方法。
SqueezeBertTokenizerFast
class transformers.SqueezeBertTokenizerFast
< 原始碼 >( vocab_file = None tokenizer_file = None do_lower_case = True unk_token = '[UNK]' sep_token = '[SEP]' pad_token = '[PAD]' cls_token = '[CLS]' mask_token = '[MASK]' tokenize_chinese_chars = True strip_accents = None **kwargs )
引數
- vocab_file (
str
) — 包含詞彙表的檔案。 - do_lower_case (
bool
, 可選, 預設為True
) — 是否在分詞時將輸入轉換為小寫。 - unk_token (
str
, 可選, 預設為"[UNK]"
) — 未知詞元。不在詞彙表中的詞元無法轉換為 ID,將被設定為此詞元。 - sep_token (
str
, 可選, 預設為"[SEP]"
) — 分隔符詞元,用於從多個序列構建一個序列,例如用於序列分類的兩個序列,或用於問答任務的文字和問題。它也用作使用特殊詞元構建的序列的最後一個詞元。 - pad_token (
str
, 可選, 預設為"[PAD]"
) — 用於填充的詞元,例如當批處理不同長度的序列時使用。 - cls_token (
str
, 可選, 預設為"[CLS]"
) — 分類器詞元,用於序列分類任務(對整個序列進行分類,而不是逐詞元分類)。當使用特殊詞元構建序列時,它是序列的第一個詞元。 - mask_token (
str
, 可選, 預設為"[MASK]"
) — 用於掩碼值的詞元。這是在使用掩碼語言建模訓練此模型時使用的詞元。這是模型將嘗試預測的詞元。 - clean_text (
bool
, 可選, 預設為True
) — 是否在分詞前透過移除任何控制字元並將所有空白替換為標準空格來清理文字。 - tokenize_chinese_chars (
bool
, 可選, 預設為True
) — 是否對中文字元進行分詞。對於日語,這可能應該被停用(請參閱此問題)。 - strip_accents (
bool
, 可選) — 是否去除所有重音符號。如果未指定此選項,則將由lowercase
的值決定(與原始 SqueezeBERT 中一樣)。 - wordpieces_prefix (
str
, 可選, 預設為"##"
) — 子詞的字首。
構建一個“快速”的 SqueezeBERT 分詞器(由 HuggingFace 的 tokenizers 庫支援)。基於 WordPiece。
此分詞器繼承自 PreTrainedTokenizerFast,其中包含大部分主要方法。使用者應參考此超類以獲取有關這些方法的更多資訊。
SqueezeBertModel
class transformers.SqueezeBertModel
< 原始碼 >( config )
引數
- config (SqueezeBertModel) — 包含模型所有引數的模型配置類。使用配置檔案初始化不會載入與模型相關的權重,僅載入配置。請檢視 from_pretrained() 方法來載入模型權重。
基礎的 Squeezebert 模型,輸出原始的隱藏狀態,頂部沒有任何特定的頭。
該模型繼承自 PreTrainedModel。請檢視超類的文件以瞭解該庫為其所有模型實現的通用方法(如下載或儲存、調整輸入嵌入大小、修剪注意力頭等)。
該模型也是 PyTorch torch.nn.Module 的子類。可以像常規 PyTorch 模組一樣使用它,並參考 PyTorch 文件瞭解所有與通用用法和行為相關的事項。
forward
< 原始碼 >( input_ids: typing.Optional[torch.Tensor] = None attention_mask: typing.Optional[torch.Tensor] = None token_type_ids: typing.Optional[torch.Tensor] = None position_ids: typing.Optional[torch.Tensor] = None head_mask: typing.Optional[torch.Tensor] = None inputs_embeds: typing.Optional[torch.FloatTensor] = None output_attentions: typing.Optional[bool] = None output_hidden_states: typing.Optional[bool] = None return_dict: typing.Optional[bool] = None ) → transformers.modeling_outputs.BaseModelOutputWithPooling 或 tuple(torch.FloatTensor)
引數
- input_ids (
torch.Tensor
,形狀為(batch_size, sequence_length)
, 可選) — 詞彙表中輸入序列詞元的索引。預設情況下將忽略填充。可以使用 AutoTokenizer 獲取索引。有關詳細資訊,請參閱 PreTrainedTokenizer.encode() 和 PreTrainedTokenizer.call()。
- attention_mask (
torch.Tensor
,形狀為(batch_size, sequence_length)
, 可選) — 用於避免對填充詞元索引執行注意力的掩碼。掩碼值選自[0, 1]
:- 1 表示詞元未被掩碼,
- 0 表示詞元被掩碼。
- token_type_ids (
torch.Tensor
,形狀為(batch_size, sequence_length)
, 可選) — 段標記索引,用於指示輸入的第一部分和第二部分。索引選自[0, 1]
:- 0 對應於*句子 A*詞元,
- 1 對應於*句子 B*詞元。
- position_ids (
torch.Tensor
,形狀為(batch_size, sequence_length)
, 可選) — 位置嵌入中每個輸入序列詞元的位置索引。選自範圍[0, config.n_positions - 1]
。 - head_mask (
torch.Tensor
,形狀為(num_heads,)
或(num_layers, num_heads)
, 可選) — 用於使自注意力模組的選定頭無效的掩碼。掩碼值選自[0, 1]
:- 1 表示頭未被掩碼,
- 0 表示頭被掩碼。
- inputs_embeds (
torch.FloatTensor
,形狀為(batch_size, sequence_length, hidden_size)
, 可選) — 可選地,你可以選擇直接傳遞嵌入表示,而不是傳遞 `input_ids`。如果你想比模型內部的嵌入查詢矩陣更多地控制如何將 `input_ids` 索引轉換為關聯向量,這將非常有用。 - output_attentions (
bool
, 可選) — 是否返回所有注意力層的注意力張量。有關更多詳細資訊,請參閱返回張量下的 `attentions`。 - output_hidden_states (
bool
, 可選) — 是否返回所有層的隱藏狀態。有關更多詳細資訊,請參閱返回張量下的 `hidden_states`。 - return_dict (
bool
, 可選) — 是否返回一個 ModelOutput 而不是一個普通的元組。
返回
transformers.modeling_outputs.BaseModelOutputWithPooling 或 tuple(torch.FloatTensor)
一個 transformers.modeling_outputs.BaseModelOutputWithPooling 或一個 `torch.FloatTensor` 的元組(如果傳遞了 `return_dict=False` 或 `config.return_dict=False`),根據配置 (SqueezeBertConfig) 和輸入包含不同的元素。
-
last_hidden_state (
torch.FloatTensor
, 形狀為(batch_size, sequence_length, hidden_size)
) — 模型最後一層輸出的隱藏狀態序列。 -
pooler_output (
torch.FloatTensor
,形狀為(batch_size, hidden_size)
) — 序列第一個詞元(分類詞元)的最後一層隱藏狀態,經過用於輔助預訓練任務的層的進一步處理。例如,對於 BERT 族模型,這返回經過線性層和 tanh 啟用函式處理後的分類詞元。線性層的權重是在預訓練期間從下一句預測(分類)目標中訓練的。 -
hidden_states (
tuple(torch.FloatTensor)
, 可選, 當傳遞output_hidden_states=True
或config.output_hidden_states=True
時返回) — `torch.FloatTensor` 的元組(如果模型有嵌入層,則一個用於嵌入層的輸出,+ 每個層的輸出一個),形狀為(batch_size, sequence_length, hidden_size)
。模型在每個層輸出的隱藏狀態以及可選的初始嵌入輸出。
-
attentions (
tuple(torch.FloatTensor)
, 可選, 當傳遞output_attentions=True
或config.output_attentions=True
時返回) — `torch.FloatTensor` 的元組(每層一個),形狀為(batch_size, num_heads, sequence_length, sequence_length)
。注意力 softmax 後的注意力權重,用於計算自注意力頭中的加權平均值。
SqueezeBertModel 的前向方法,重寫了 `__call__` 特殊方法。
儘管前向傳遞的流程需要在此函式內定義,但之後應呼叫 `Module` 例項而不是此函式,因為前者會處理預處理和後處理步驟,而後者會靜默忽略它們。
SqueezeBertForMaskedLM
class transformers.SqueezeBertForMaskedLM
< 原始碼 >( config )
引數
- config (SqueezeBertForMaskedLM) — 包含模型所有引數的模型配置類。使用配置檔案進行初始化不會載入與模型相關的權重,只會載入配置。請檢視 from_pretrained() 方法來載入模型權重。
頂部帶有一個語言建模
頭的 Squeezebert 模型。
該模型繼承自 PreTrainedModel。請檢視超類的文件以瞭解該庫為其所有模型實現的通用方法(如下載或儲存、調整輸入嵌入大小、修剪注意力頭等)。
該模型也是 PyTorch torch.nn.Module 的子類。可以像常規 PyTorch 模組一樣使用它,並參考 PyTorch 文件瞭解所有與通用用法和行為相關的事項。
forward
< 原始碼 >( input_ids: typing.Optional[torch.Tensor] = None attention_mask: typing.Optional[torch.Tensor] = None token_type_ids: typing.Optional[torch.Tensor] = None position_ids: typing.Optional[torch.Tensor] = None head_mask: typing.Optional[torch.Tensor] = None inputs_embeds: typing.Optional[torch.Tensor] = None labels: typing.Optional[torch.Tensor] = None output_attentions: typing.Optional[bool] = None output_hidden_states: typing.Optional[bool] = None return_dict: typing.Optional[bool] = None ) → transformers.modeling_outputs.MaskedLMOutput 或 tuple(torch.FloatTensor)
引數
- input_ids (
torch.Tensor
,形狀為(batch_size, sequence_length)
,可選) — 詞彙表中輸入序列標記的索引。預設情況下將忽略填充。可以使用 AutoTokenizer 獲取索引。有關詳細資訊,請參閱 PreTrainedTokenizer.encode() 和 PreTrainedTokenizer.call()。
- attention_mask (
torch.Tensor
,形狀為(batch_size, sequence_length)
,可選) — 用於避免在填充標記索引上執行注意力的掩碼。掩碼值在[0, 1]
中選擇:- 1 表示標記未被遮蔽,
- 0 表示標記被遮蔽。
- token_type_ids (
torch.Tensor
,形狀為(batch_size, sequence_length)
,可選) — 用於指示輸入的第一和第二部分的段標記索引。索引在[0, 1]
中選擇:- 0 對應於句子 A 的標記,
- 1 對應於句子 B 的標記。
- position_ids (
torch.Tensor
,形狀為(batch_size, sequence_length)
,可選) — 每個輸入序列標記在位置嵌入中的位置索引。在[0, config.n_positions - 1]
範圍內選擇。 - head_mask (
torch.Tensor
,形狀為(num_heads,)
或(num_layers, num_heads)
,可選) — 用於置零自注意力模組中選定頭的掩碼。掩碼值在[0, 1]
中選擇:- 1 表示頭未被遮蔽,
- 0 表示頭被遮蔽。
- inputs_embeds (
torch.Tensor
,形狀為(batch_size, sequence_length, hidden_size)
,可選) — 可選地,你可以選擇直接傳遞嵌入表示,而不是傳遞 `input_ids`。如果你想比模型內部的嵌入查詢矩陣更好地控制如何將 `input_ids` 索引轉換為關聯向量,這會很有用。 - labels (
torch.LongTensor
,形狀為(batch_size, sequence_length)
,可選) — 用於計算掩碼語言建模損失的標籤。索引應在[-100, 0, ..., config.vocab_size]
中(參見 `input_ids` 文件字串)。索引設定為 `-100` 的標記將被忽略(遮蔽),損失僅對標籤在[0, ..., config.vocab_size]
中的標記進行計算。 - output_attentions (
bool
,可選) — 是否返回所有注意力層的注意力張量。有關詳細資訊,請參閱返回的張量下的 `attentions`。 - output_hidden_states (
bool
,可選) — 是否返回所有層的隱藏狀態。有關詳細資訊,請參閱返回的張量下的 `hidden_states`。 - return_dict (
bool
,可選) — 是否返回一個 ModelOutput 而不是一個普通的元組。
返回
transformers.modeling_outputs.MaskedLMOutput 或 tuple(torch.FloatTensor)
一個 transformers.modeling_outputs.MaskedLMOutput 或一個 torch.FloatTensor
元組(如果傳遞了 `return_dict=False` 或 `config.return_dict=False`),根據配置(SqueezeBertConfig)和輸入,包含各種元素。
-
loss (形狀為
(1,)
的torch.FloatTensor
,可選,當提供labels
時返回) — 掩碼語言建模 (MLM) 損失。 -
logits (形狀為
(batch_size, sequence_length, config.vocab_size)
的torch.FloatTensor
) — 語言建模頭部的預測分數(SoftMax 之前的每個詞彙標記的分數)。 -
hidden_states (
tuple(torch.FloatTensor)
, 可選, 當傳遞output_hidden_states=True
或config.output_hidden_states=True
時返回) — `torch.FloatTensor` 的元組(如果模型有嵌入層,則一個用於嵌入層的輸出,+ 每個層的輸出一個),形狀為(batch_size, sequence_length, hidden_size)
。模型在每個層輸出的隱藏狀態以及可選的初始嵌入輸出。
-
attentions (
tuple(torch.FloatTensor)
, 可選, 當傳遞output_attentions=True
或config.output_attentions=True
時返回) — `torch.FloatTensor` 的元組(每層一個),形狀為(batch_size, num_heads, sequence_length, sequence_length)
。注意力 softmax 後的注意力權重,用於計算自注意力頭中的加權平均值。
SqueezeBertForMaskedLM 的前向方法會覆蓋 `__call__` 特殊方法。
儘管前向傳遞的流程需要在此函式內定義,但之後應呼叫 `Module` 例項而不是此函式,因為前者會處理預處理和後處理步驟,而後者會靜默忽略它們。
示例
>>> from transformers import AutoTokenizer, SqueezeBertForMaskedLM
>>> import torch
>>> tokenizer = AutoTokenizer.from_pretrained("squeezebert/squeezebert-uncased")
>>> model = SqueezeBertForMaskedLM.from_pretrained("squeezebert/squeezebert-uncased")
>>> inputs = tokenizer("The capital of France is <mask>.", return_tensors="pt")
>>> with torch.no_grad():
... logits = model(**inputs).logits
>>> # retrieve index of <mask>
>>> mask_token_index = (inputs.input_ids == tokenizer.mask_token_id)[0].nonzero(as_tuple=True)[0]
>>> predicted_token_id = logits[0, mask_token_index].argmax(axis=-1)
>>> tokenizer.decode(predicted_token_id)
...
>>> labels = tokenizer("The capital of France is Paris.", return_tensors="pt")["input_ids"]
>>> # mask labels of non-<mask> tokens
>>> labels = torch.where(inputs.input_ids == tokenizer.mask_token_id, labels, -100)
>>> outputs = model(**inputs, labels=labels)
>>> round(outputs.loss.item(), 2)
...
SqueezeBertForSequenceClassification
class transformers.SqueezeBertForSequenceClassification
< 原始碼 >( config )
引數
- config (SqueezeBertForSequenceClassification) — 包含模型所有引數的模型配置類。使用配置檔案進行初始化不會載入與模型相關的權重,只會載入配置。請檢視 from_pretrained() 方法來載入模型權重。
SqueezeBERT 模型轉換器,頂部帶有一個序列分類/迴歸頭(一個在池化輸出之上的線性層),例如用於 GLUE 任務。
該模型繼承自 PreTrainedModel。請檢視超類的文件以瞭解該庫為其所有模型實現的通用方法(如下載或儲存、調整輸入嵌入大小、修剪注意力頭等)。
該模型也是 PyTorch torch.nn.Module 的子類。可以像常規 PyTorch 模組一樣使用它,並參考 PyTorch 文件瞭解所有與通用用法和行為相關的事項。
forward
< 原始碼 >( input_ids: typing.Optional[torch.Tensor] = None attention_mask: typing.Optional[torch.Tensor] = None token_type_ids: typing.Optional[torch.Tensor] = None position_ids: typing.Optional[torch.Tensor] = None head_mask: typing.Optional[torch.Tensor] = None inputs_embeds: typing.Optional[torch.Tensor] = None labels: typing.Optional[torch.Tensor] = None output_attentions: typing.Optional[bool] = None output_hidden_states: typing.Optional[bool] = None return_dict: typing.Optional[bool] = None ) → transformers.modeling_outputs.SequenceClassifierOutput 或 tuple(torch.FloatTensor)
引數
- input_ids (
torch.Tensor
,形狀為(batch_size, sequence_length)
,可選) — 詞彙表中輸入序列標記的索引。預設情況下將忽略填充。可以使用 AutoTokenizer 獲取索引。有關詳細資訊,請參閱 PreTrainedTokenizer.encode() 和 PreTrainedTokenizer.call()。
- attention_mask (
torch.Tensor
,形狀為(batch_size, sequence_length)
,可選) — 用於避免在填充標記索引上執行注意力的掩碼。掩碼值在[0, 1]
中選擇:- 1 表示標記未被遮蔽,
- 0 表示標記被遮蔽。
- token_type_ids (
torch.Tensor
,形狀為(batch_size, sequence_length)
,可選) — 用於指示輸入的第一和第二部分的段標記索引。索引在[0, 1]
中選擇:- 0 對應於句子 A 的標記,
- 1 對應於句子 B 的標記。
- position_ids (
torch.Tensor
,形狀為(batch_size, sequence_length)
,可選) — 每個輸入序列標記在位置嵌入中的位置索引。在[0, config.n_positions - 1]
範圍內選擇。 - head_mask (
torch.Tensor
,形狀為(num_heads,)
或(num_layers, num_heads)
,可選) — 用於置零自注意力模組中選定頭的掩碼。掩碼值在[0, 1]
中選擇:- 1 表示頭未被遮蔽,
- 0 表示頭被遮蔽。
- inputs_embeds (
torch.Tensor
,形狀為(batch_size, sequence_length, hidden_size)
,可選) — 可選地,你可以選擇直接傳遞嵌入表示,而不是傳遞 `input_ids`。如果你想比模型內部的嵌入查詢矩陣更好地控制如何將 `input_ids` 索引轉換為關聯向量,這會很有用。 - labels (
torch.LongTensor
,形狀為(batch_size,)
,可選) — 用於計算序列分類/迴歸損失的標籤。索引應在[0, ..., config.num_labels - 1]
中。如果 `config.num_labels == 1`,則計算迴歸損失(均方損失);如果 `config.num_labels > 1`,則計算分類損失(交叉熵)。 - output_attentions (
bool
,可選) — 是否返回所有注意力層的注意力張量。有關詳細資訊,請參閱返回的張量下的 `attentions`。 - output_hidden_states (
bool
,可選) — 是否返回所有層的隱藏狀態。有關詳細資訊,請參閱返回的張量下的 `hidden_states`。 - return_dict (
bool
,可選) — 是否返回一個 ModelOutput 而不是一個普通的元組。
返回
transformers.modeling_outputs.SequenceClassifierOutput 或 tuple(torch.FloatTensor)
一個 transformers.modeling_outputs.SequenceClassifierOutput 或一個 torch.FloatTensor
元組(如果傳遞了 `return_dict=False` 或 `config.return_dict=False`),根據配置(SqueezeBertConfig)和輸入,包含各種元素。
-
loss (形狀為
(1,)
的torch.FloatTensor
,可選,當提供labels
時返回) — 分類損失(如果 config.num_labels==1,則為迴歸損失)。 -
logits (形狀為
(batch_size, config.num_labels)
的torch.FloatTensor
) — 分類(如果 config.num_labels==1,則為迴歸)分數(SoftMax 之前)。 -
hidden_states (
tuple(torch.FloatTensor)
, 可選, 當傳遞output_hidden_states=True
或config.output_hidden_states=True
時返回) — `torch.FloatTensor` 的元組(如果模型有嵌入層,則一個用於嵌入層的輸出,+ 每個層的輸出一個),形狀為(batch_size, sequence_length, hidden_size)
。模型在每個層輸出的隱藏狀態以及可選的初始嵌入輸出。
-
attentions (
tuple(torch.FloatTensor)
, 可選, 當傳遞output_attentions=True
或config.output_attentions=True
時返回) — `torch.FloatTensor` 的元組(每層一個),形狀為(batch_size, num_heads, sequence_length, sequence_length)
。注意力 softmax 後的注意力權重,用於計算自注意力頭中的加權平均值。
SqueezeBertForSequenceClassification 的前向方法會覆蓋 `__call__` 特殊方法。
儘管前向傳遞的流程需要在此函式內定義,但之後應呼叫 `Module` 例項而不是此函式,因為前者會處理預處理和後處理步驟,而後者會靜默忽略它們。
單標籤分類示例
>>> import torch
>>> from transformers import AutoTokenizer, SqueezeBertForSequenceClassification
>>> tokenizer = AutoTokenizer.from_pretrained("squeezebert/squeezebert-uncased")
>>> model = SqueezeBertForSequenceClassification.from_pretrained("squeezebert/squeezebert-uncased")
>>> inputs = tokenizer("Hello, my dog is cute", return_tensors="pt")
>>> with torch.no_grad():
... logits = model(**inputs).logits
>>> predicted_class_id = logits.argmax().item()
>>> model.config.id2label[predicted_class_id]
...
>>> # To train a model on `num_labels` classes, you can pass `num_labels=num_labels` to `.from_pretrained(...)`
>>> num_labels = len(model.config.id2label)
>>> model = SqueezeBertForSequenceClassification.from_pretrained("squeezebert/squeezebert-uncased", num_labels=num_labels)
>>> labels = torch.tensor([1])
>>> loss = model(**inputs, labels=labels).loss
>>> round(loss.item(), 2)
...
多標籤分類示例
>>> import torch
>>> from transformers import AutoTokenizer, SqueezeBertForSequenceClassification
>>> tokenizer = AutoTokenizer.from_pretrained("squeezebert/squeezebert-uncased")
>>> model = SqueezeBertForSequenceClassification.from_pretrained("squeezebert/squeezebert-uncased", problem_type="multi_label_classification")
>>> inputs = tokenizer("Hello, my dog is cute", return_tensors="pt")
>>> with torch.no_grad():
... logits = model(**inputs).logits
>>> predicted_class_ids = torch.arange(0, logits.shape[-1])[torch.sigmoid(logits).squeeze(dim=0) > 0.5]
>>> # To train a model on `num_labels` classes, you can pass `num_labels=num_labels` to `.from_pretrained(...)`
>>> num_labels = len(model.config.id2label)
>>> model = SqueezeBertForSequenceClassification.from_pretrained(
... "squeezebert/squeezebert-uncased", num_labels=num_labels, problem_type="multi_label_classification"
... )
>>> labels = torch.sum(
... torch.nn.functional.one_hot(predicted_class_ids[None, :].clone(), num_classes=num_labels), dim=1
... ).to(torch.float)
>>> loss = model(**inputs, labels=labels).loss
SqueezeBertForMultipleChoice
class transformers.SqueezeBertForMultipleChoice
< 原始碼 >( config )
引數
- config (SqueezeBertForMultipleChoice) — 包含模型所有引數的模型配置類。使用配置檔案進行初始化不會載入與模型相關的權重,只會載入配置。請檢視 from_pretrained() 方法來載入模型權重。
帶有選擇題分類頭的 Squeezebert 模型(在池化輸出之上有一個線性層和一個 softmax),例如用於 RocStories/SWAG 任務。
該模型繼承自 PreTrainedModel。請檢視超類的文件以瞭解該庫為其所有模型實現的通用方法(如下載或儲存、調整輸入嵌入大小、修剪注意力頭等)。
該模型也是 PyTorch torch.nn.Module 的子類。可以像常規 PyTorch 模組一樣使用它,並參考 PyTorch 文件瞭解所有與通用用法和行為相關的事項。
forward
< 原始碼 >( input_ids: typing.Optional[torch.Tensor] = None attention_mask: typing.Optional[torch.Tensor] = None token_type_ids: typing.Optional[torch.Tensor] = None position_ids: typing.Optional[torch.Tensor] = None head_mask: typing.Optional[torch.Tensor] = None inputs_embeds: typing.Optional[torch.Tensor] = None labels: typing.Optional[torch.Tensor] = None output_attentions: typing.Optional[bool] = None output_hidden_states: typing.Optional[bool] = None return_dict: typing.Optional[bool] = None ) → transformers.modeling_outputs.MultipleChoiceModelOutput 或 tuple(torch.FloatTensor)
引數
- input_ids (
torch.LongTensor
,形狀為(batch_size, num_choices, sequence_length)
) — 詞彙表中輸入序列標記的索引。可以使用 AutoTokenizer 獲取索引。有關詳細資訊,請參閱 PreTrainedTokenizer.encode() 和 PreTrainedTokenizer.call()。
- attention_mask (
torch.Tensor
,形狀為(batch_size, sequence_length)
,可選) — 用於避免在填充標記索引上執行注意力的掩碼。掩碼值在[0, 1]
中選擇:- 1 表示標記未被遮蔽,
- 0 表示標記被遮蔽。
- token_type_ids (
torch.LongTensor
,形狀為(batch_size, num_choices, sequence_length)
,可選) — 用於指示輸入的第一和第二部分的段標記索引。索引在[0, 1]
中選擇:- 0 對應於句子 A 的標記,
- 1 對應於句子 B 的標記。
- position_ids (
torch.LongTensor
,形狀為(batch_size, num_choices, sequence_length)
,可選) — 每個輸入序列標記在位置嵌入中的位置索引。在[0, config.max_position_embeddings - 1]
範圍內選擇。 - head_mask (
torch.Tensor
,形狀為(num_heads,)
或(num_layers, num_heads)
,可選) — 用於置零自注意力模組中選定頭的掩碼。掩碼值在[0, 1]
中選擇:- 1 表示頭未被遮蔽,
- 0 表示頭被遮蔽。
- inputs_embeds (
torch.FloatTensor
,形狀為(batch_size, num_choices, sequence_length, hidden_size)
,可選) — 可選地,你可以選擇直接傳遞嵌入表示,而不是傳遞 `input_ids`。如果你想比模型內部的嵌入查詢矩陣更好地控制如何將 `input_ids` 索引轉換為關聯向量,這會很有用。 - labels (
torch.LongTensor
,形狀為(batch_size,)
,可選) — 用於計算多項選擇分類損失的標籤。索引應在[0, ..., num_choices-1]
中,其中 *num_choices* 是輸入張量第二維的大小。(參見上面的 *input_ids*) - output_attentions (
bool
,可選) — 是否返回所有注意力層的注意力張量。有關詳細資訊,請參閱返回的張量下的 `attentions`。 - output_hidden_states (
bool
,可選) — 是否返回所有層的隱藏狀態。有關詳細資訊,請參閱返回的張量下的 `hidden_states`。 - return_dict (
bool
,可選) — 是否返回一個 ModelOutput 而不是一個普通的元組。
返回
transformers.modeling_outputs.MultipleChoiceModelOutput 或 tuple(torch.FloatTensor)
一個 transformers.modeling_outputs.MultipleChoiceModelOutput 或一個 torch.FloatTensor
元組(如果傳遞了 `return_dict=False` 或 `config.return_dict=False`),根據配置(SqueezeBertConfig)和輸入,包含各種元素。
-
loss (形狀為 (1,) 的
torch.FloatTensor
,可選,當提供labels
時返回) — 分類損失。 -
logits (形狀為
(batch_size, num_choices)
的torch.FloatTensor
) — num_choices 是輸入張量的第二維大小。(請參閱上面的 input_ids)。分類分數(SoftMax 之前)。
-
hidden_states (
tuple(torch.FloatTensor)
, 可選, 當傳遞output_hidden_states=True
或config.output_hidden_states=True
時返回) — `torch.FloatTensor` 的元組(如果模型有嵌入層,則一個用於嵌入層的輸出,+ 每個層的輸出一個),形狀為(batch_size, sequence_length, hidden_size)
。模型在每個層輸出的隱藏狀態以及可選的初始嵌入輸出。
-
attentions (
tuple(torch.FloatTensor)
, 可選, 當傳遞output_attentions=True
或config.output_attentions=True
時返回) — `torch.FloatTensor` 的元組(每層一個),形狀為(batch_size, num_heads, sequence_length, sequence_length)
。注意力 softmax 後的注意力權重,用於計算自注意力頭中的加權平均值。
SqueezeBertForMultipleChoice 的前向方法會覆蓋 `__call__` 特殊方法。
儘管前向傳遞的流程需要在此函式內定義,但之後應呼叫 `Module` 例項而不是此函式,因為前者會處理預處理和後處理步驟,而後者會靜默忽略它們。
示例
>>> from transformers import AutoTokenizer, SqueezeBertForMultipleChoice
>>> import torch
>>> tokenizer = AutoTokenizer.from_pretrained("squeezebert/squeezebert-uncased")
>>> model = SqueezeBertForMultipleChoice.from_pretrained("squeezebert/squeezebert-uncased")
>>> prompt = "In Italy, pizza served in formal settings, such as at a restaurant, is presented unsliced."
>>> choice0 = "It is eaten with a fork and a knife."
>>> choice1 = "It is eaten while held in the hand."
>>> labels = torch.tensor(0).unsqueeze(0) # choice0 is correct (according to Wikipedia ;)), batch size 1
>>> encoding = tokenizer([prompt, prompt], [choice0, choice1], return_tensors="pt", padding=True)
>>> outputs = model(**{k: v.unsqueeze(0) for k, v in encoding.items()}, labels=labels) # batch size is 1
>>> # the linear classifier still needs to be trained
>>> loss = outputs.loss
>>> logits = outputs.logits
SqueezeBertForTokenClassification
class transformers.SqueezeBertForTokenClassification
< 原始碼 >( config )
引數
- config (SqueezeBertForTokenClassification) — 包含模型所有引數的模型配置類。使用配置檔案進行初始化不會載入與模型相關的權重,只會載入配置。請檢視 from_pretrained() 方法來載入模型權重。
帶有標記分類頭的 Squeezebert 轉換器(在隱藏狀態輸出之上有一個線性層),例如用於命名實體識別(NER)任務。
該模型繼承自 PreTrainedModel。請檢視超類的文件以瞭解該庫為其所有模型實現的通用方法(如下載或儲存、調整輸入嵌入大小、修剪注意力頭等)。
該模型也是 PyTorch torch.nn.Module 的子類。可以像常規 PyTorch 模組一樣使用它,並參考 PyTorch 文件瞭解所有與通用用法和行為相關的事項。
forward
< 原始碼 >( input_ids: typing.Optional[torch.Tensor] = None attention_mask: typing.Optional[torch.Tensor] = None token_type_ids: typing.Optional[torch.Tensor] = None position_ids: typing.Optional[torch.Tensor] = None head_mask: typing.Optional[torch.Tensor] = None inputs_embeds: typing.Optional[torch.Tensor] = None labels: typing.Optional[torch.Tensor] = None output_attentions: typing.Optional[bool] = None output_hidden_states: typing.Optional[bool] = None return_dict: typing.Optional[bool] = None ) → transformers.modeling_outputs.TokenClassifierOutput 或 tuple(torch.FloatTensor)
引數
- input_ids (
torch.Tensor
,形狀為(batch_size, sequence_length)
,可選) — 詞彙表中輸入序列標記的索引。預設情況下將忽略填充。可以使用 AutoTokenizer 獲取索引。有關詳細資訊,請參閱 PreTrainedTokenizer.encode() 和 PreTrainedTokenizer.call()。
- attention_mask (
torch.Tensor
,形狀為(batch_size, sequence_length)
,可選) — 用於避免在填充標記索引上執行注意力的掩碼。掩碼值在[0, 1]
中選擇:- 1 表示標記未被遮蔽,
- 0 表示標記被遮蔽。
- token_type_ids (
torch.Tensor
,形狀為(batch_size, sequence_length)
,可選) — 用於指示輸入的第一和第二部分的段標記索引。索引在[0, 1]
中選擇:- 0 對應於句子 A 的標記,
- 1 對應於句子 B 的標記。
- position_ids (
torch.Tensor
,形狀為(batch_size, sequence_length)
,可選) — 位置嵌入中每個輸入序列詞元的位置索引。取值範圍為[0, config.n_positions - 1]
。 - head_mask (
torch.Tensor
,形狀為(num_heads,)
或(num_layers, num_heads)
,可選) — 用於使自注意力模組中選定的頭無效的掩碼。掩碼值的取值範圍為[0, 1]
:- 1 表示頭未被遮蔽,
- 0 表示頭被遮蔽。
- inputs_embeds (
torch.Tensor
,形狀為(batch_size, sequence_length, hidden_size)
,可選) — 可選地,你可以選擇直接傳遞一個嵌入式表示,而不是傳遞input_ids
。如果你想比模型內部的嵌入查詢矩陣更好地控制如何將input_ids
索引轉換為相關向量,這會很有用。 - labels (
torch.LongTensor
,形狀為(batch_size, sequence_length)
,可選) — 用於計算詞元分類損失的標籤。索引應在[0, ..., config.num_labels - 1]
範圍內。 - output_attentions (
bool
,可選) — 是否返回所有注意力層的注意力張量。有關更多詳細資訊,請參閱返回張量下的attentions
。 - output_hidden_states (
bool
,可選) — 是否返回所有層的隱藏狀態。有關更多詳細資訊,請參閱返回張量下的hidden_states
。 - return_dict (
bool
,可選) — 是返回一個 ModelOutput 而不是一個普通的元組。
返回
transformers.modeling_outputs.TokenClassifierOutput 或 tuple(torch.FloatTensor)
一個 transformers.modeling_outputs.TokenClassifierOutput 或一個 torch.FloatTensor
元組(如果傳遞了 return_dict=False
或當 config.return_dict=False
時),根據配置(SqueezeBertConfig)和輸入,包含各種元素。
-
loss (形狀為
(1,)
的torch.FloatTensor
,可選,當提供labels
時返回) — 分類損失。 -
logits (形狀為
(batch_size, sequence_length, config.num_labels)
的torch.FloatTensor
) — 分類分數(SoftMax 之前)。 -
hidden_states (
tuple(torch.FloatTensor)
, 可選, 當傳遞output_hidden_states=True
或config.output_hidden_states=True
時返回) — `torch.FloatTensor` 的元組(如果模型有嵌入層,則一個用於嵌入層的輸出,+ 每個層的輸出一個),形狀為(batch_size, sequence_length, hidden_size)
。模型在每個層輸出的隱藏狀態以及可選的初始嵌入輸出。
-
attentions (
tuple(torch.FloatTensor)
, 可選, 當傳遞output_attentions=True
或config.output_attentions=True
時返回) — `torch.FloatTensor` 的元組(每層一個),形狀為(batch_size, num_heads, sequence_length, sequence_length)
。注意力 softmax 後的注意力權重,用於計算自注意力頭中的加權平均值。
SqueezeBertForTokenClassification 的 forward 方法會覆蓋 __call__
特殊方法。
儘管前向傳遞的流程需要在此函式內定義,但之後應呼叫 `Module` 例項而不是此函式,因為前者會處理預處理和後處理步驟,而後者會靜默忽略它們。
示例
>>> from transformers import AutoTokenizer, SqueezeBertForTokenClassification
>>> import torch
>>> tokenizer = AutoTokenizer.from_pretrained("squeezebert/squeezebert-uncased")
>>> model = SqueezeBertForTokenClassification.from_pretrained("squeezebert/squeezebert-uncased")
>>> inputs = tokenizer(
... "HuggingFace is a company based in Paris and New York", add_special_tokens=False, return_tensors="pt"
... )
>>> with torch.no_grad():
... logits = model(**inputs).logits
>>> predicted_token_class_ids = logits.argmax(-1)
>>> # Note that tokens are classified rather then input words which means that
>>> # there might be more predicted token classes than words.
>>> # Multiple token classes might account for the same word
>>> predicted_tokens_classes = [model.config.id2label[t.item()] for t in predicted_token_class_ids[0]]
>>> predicted_tokens_classes
...
>>> labels = predicted_token_class_ids
>>> loss = model(**inputs, labels=labels).loss
>>> round(loss.item(), 2)
...
SqueezeBertForQuestionAnswering
class transformers.SqueezeBertForQuestionAnswering
< 原始碼 >( config )
引數
- config (SqueezeBertForQuestionAnswering) — 包含模型所有引數的模型配置類。使用配置檔案進行初始化不會載入與模型相關的權重,只會載入配置。請檢視 from_pretrained() 方法來載入模型權重。
Squeezebert transformer,頂部帶有一個用於抽取式問答任務(如SQuAD)的片段分類頭(在隱藏狀態輸出之上有一個線性層,用於計算 span start logits
和 span end logits
)。
該模型繼承自 PreTrainedModel。請檢視超類的文件以瞭解該庫為其所有模型實現的通用方法(如下載或儲存、調整輸入嵌入大小、修剪注意力頭等)。
該模型也是 PyTorch torch.nn.Module 的子類。可以像常規 PyTorch 模組一樣使用它,並參考 PyTorch 文件瞭解所有與通用用法和行為相關的事項。
forward
< 原始碼 >( input_ids: typing.Optional[torch.Tensor] = None attention_mask: typing.Optional[torch.Tensor] = None token_type_ids: typing.Optional[torch.Tensor] = None position_ids: typing.Optional[torch.Tensor] = None head_mask: typing.Optional[torch.Tensor] = None inputs_embeds: typing.Optional[torch.Tensor] = None start_positions: typing.Optional[torch.Tensor] = None end_positions: typing.Optional[torch.Tensor] = None output_attentions: typing.Optional[bool] = None output_hidden_states: typing.Optional[bool] = None return_dict: typing.Optional[bool] = None ) → transformers.modeling_outputs.QuestionAnsweringModelOutput 或 tuple(torch.FloatTensor)
引數
- input_ids (
torch.Tensor
,形狀為(batch_size, sequence_length)
,可選) — 詞彙表中輸入序列詞元的索引。預設情況下,填充將被忽略。可以使用 AutoTokenizer 獲取索引。有關詳細資訊,請參閱 PreTrainedTokenizer.encode() 和 PreTrainedTokenizer.call()。
- attention_mask (
torch.Tensor
,形狀為(batch_size, sequence_length)
,可選) — 用於避免對填充詞元索引執行注意力的掩碼。掩碼值的取值範圍為[0, 1]
:- 1 表示詞元未被遮蔽,
- 0 表示詞元被遮蔽。
- token_type_ids (
torch.Tensor
,形狀為(batch_size, sequence_length)
,可選) — 分段詞元索引,用於指示輸入的第一部分和第二部分。索引的取值範圍為[0, 1]
:- 0 對應於 句子 A 的詞元,
- 1 對應於 句子 B 的詞元。
- position_ids (
torch.Tensor
,形狀為(batch_size, sequence_length)
,可選) — 位置嵌入中每個輸入序列詞元的位置索引。取值範圍為[0, config.n_positions - 1]
。 - head_mask (
torch.Tensor
,形狀為(num_heads,)
或(num_layers, num_heads)
,可選) — 用於使自注意力模組中選定的頭無效的掩碼。掩碼值的取值範圍為[0, 1]
:- 1 表示頭未被遮蔽,
- 0 表示頭被遮蔽。
- inputs_embeds (
torch.Tensor
,形狀為(batch_size, sequence_length, hidden_size)
,可選) — 可選地,你可以選擇直接傳遞一個嵌入式表示,而不是傳遞input_ids
。如果你想比模型內部的嵌入查詢矩陣更好地控制如何將input_ids
索引轉換為相關向量,這會很有用。 - start_positions (
torch.Tensor
,形狀為(batch_size,)
,可選) — 用於計算詞元分類損失的標記片段起始位置(索引)的標籤。位置被限制在序列長度(sequence_length
)內。超出序列範圍的位置在計算損失時不予考慮。 - end_positions (
torch.Tensor
,形狀為(batch_size,)
,可選) — 用於計算詞元分類損失的標記片段結束位置(索引)的標籤。位置被限制在序列長度(sequence_length
)內。超出序列範圍的位置在計算損失時不予考慮。 - output_attentions (
bool
,可選) — 是否返回所有注意力層的注意力張量。有關更多詳細資訊,請參閱返回張量下的attentions
。 - output_hidden_states (
bool
,可選) — 是否返回所有層的隱藏狀態。有關更多詳細資訊,請參閱返回張量下的hidden_states
。 - return_dict (
bool
,可選) — 是返回一個 ModelOutput 而不是一個普通的元組。
返回
transformers.modeling_outputs.QuestionAnsweringModelOutput 或 tuple(torch.FloatTensor)
一個 transformers.modeling_outputs.QuestionAnsweringModelOutput 或一個 torch.FloatTensor
元組(如果傳遞了 return_dict=False
或當 config.return_dict=False
時),根據配置(SqueezeBertConfig)和輸入,包含各種元素。
-
loss (
torch.FloatTensor
of shape(1,)
, 可選, 當提供labels
時返回) — 總範圍提取損失是起始位置和結束位置的交叉熵之和。 -
start_logits (
torch.FloatTensor
of shape(batch_size, sequence_length)
) — 範圍起始分數(SoftMax 之前)。 -
end_logits (
torch.FloatTensor
of shape(batch_size, sequence_length)
) — 範圍結束分數(SoftMax 之前)。 -
hidden_states (
tuple(torch.FloatTensor)
, 可選, 當傳遞output_hidden_states=True
或config.output_hidden_states=True
時返回) — `torch.FloatTensor` 的元組(如果模型有嵌入層,則一個用於嵌入層的輸出,+ 每個層的輸出一個),形狀為(batch_size, sequence_length, hidden_size)
。模型在每個層輸出的隱藏狀態以及可選的初始嵌入輸出。
-
attentions (
tuple(torch.FloatTensor)
, 可選, 當傳遞output_attentions=True
或config.output_attentions=True
時返回) — `torch.FloatTensor` 的元組(每層一個),形狀為(batch_size, num_heads, sequence_length, sequence_length)
。注意力 softmax 後的注意力權重,用於計算自注意力頭中的加權平均值。
SqueezeBertForQuestionAnswering 的 forward 方法會覆蓋 __call__
特殊方法。
儘管前向傳遞的流程需要在此函式內定義,但之後應呼叫 `Module` 例項而不是此函式,因為前者會處理預處理和後處理步驟,而後者會靜默忽略它們。
示例
>>> from transformers import AutoTokenizer, SqueezeBertForQuestionAnswering
>>> import torch
>>> tokenizer = AutoTokenizer.from_pretrained("squeezebert/squeezebert-uncased")
>>> model = SqueezeBertForQuestionAnswering.from_pretrained("squeezebert/squeezebert-uncased")
>>> question, text = "Who was Jim Henson?", "Jim Henson was a nice puppet"
>>> inputs = tokenizer(question, text, return_tensors="pt")
>>> with torch.no_grad():
... outputs = model(**inputs)
>>> answer_start_index = outputs.start_logits.argmax()
>>> answer_end_index = outputs.end_logits.argmax()
>>> predict_answer_tokens = inputs.input_ids[0, answer_start_index : answer_end_index + 1]
>>> tokenizer.decode(predict_answer_tokens, skip_special_tokens=True)
...
>>> # target is "nice puppet"
>>> target_start_index = torch.tensor([14])
>>> target_end_index = torch.tensor([15])
>>> outputs = model(**inputs, start_positions=target_start_index, end_positions=target_end_index)
>>> loss = outputs.loss
>>> round(loss.item(), 2)
...