LLM 課程文件
使用預訓練模型
加入 Hugging Face 社群
並獲得增強的文件體驗
開始使用
使用預訓練模型
模型中心(Model Hub)使得選擇合適的模型變得簡單,因此只需幾行程式碼即可在任何下游庫中使用它。讓我們看看如何實際使用這些模型,以及如何回饋社群。
假設我們正在尋找一個可以執行掩碼填充的法語模型。

我們選擇 `camembert-base` 檢查點來嘗試。識別符 `camembert-base` 就是我們開始使用它所需的一切!正如您在之前的章節中看到的,我們可以使用 `pipeline()` 函式來例項化它。
from transformers import pipeline
camembert_fill_mask = pipeline("fill-mask", model="camembert-base")
results = camembert_fill_mask("Le camembert est <mask> :)")
[
{'sequence': 'Le camembert est délicieux :)', 'score': 0.49091005325317383, 'token': 7200, 'token_str': 'délicieux'},
{'sequence': 'Le camembert est excellent :)', 'score': 0.1055697426199913, 'token': 2183, 'token_str': 'excellent'},
{'sequence': 'Le camembert est succulent :)', 'score': 0.03453313186764717, 'token': 26202, 'token_str': 'succulent'},
{'sequence': 'Le camembert est meilleur :)', 'score': 0.0330314114689827, 'token': 528, 'token_str': 'meilleur'},
{'sequence': 'Le camembert est parfait :)', 'score': 0.03007650189101696, 'token': 1654, 'token_str': 'parfait'}
]
如您所見,在 pipeline 中載入模型非常簡單。您唯一需要注意的是,所選的檢查點是否適合它將要用於的任務。例如,這裡我們將 `camembert-base` 檢查點載入到 `fill-mask` pipeline 中,這完全沒問題。但是,如果我們將此檢查點載入到 `text-classification` pipeline 中,結果將毫無意義,因為 `camembert-base` 的頭部不適合此任務!我們建議使用 Hugging Face Hub 介面中的任務選擇器來選擇合適的檢查點。

您也可以直接使用模型架構例項化檢查點。
from transformers import CamembertTokenizer, CamembertForMaskedLM
tokenizer = CamembertTokenizer.from_pretrained("camembert-base")
model = CamembertForMaskedLM.from_pretrained("camembert-base")
但是,我們建議使用 `Auto*` 類,因為這些類本質上與架構無關。雖然之前的程式碼示例將使用者限制在 CamemBERT 架構中可載入的檢查點,但使用 `Auto*` 類可以輕鬆切換檢查點。
from transformers import AutoTokenizer, AutoModelForMaskedLM
tokenizer = AutoTokenizer.from_pretrained("camembert-base")
model = AutoModelForMaskedLM.from_pretrained("camembert-base")
使用預訓練模型時,請務必檢查它是如何訓練的、在哪些資料集上訓練的、其侷限性以及其偏見。所有這些資訊都應在其模型卡上註明。
< > 在 GitHub 上更新