NLP 課程文件

引言

Hugging Face's logo
加入 Hugging Face 社群

並獲得增強文件體驗

開始使用

引言

Ask a Question

正如你在 第 1 章 中看到的,Transformer 模型通常非常龐大。它們擁有數百萬甚至數百億個引數,因此訓練和部署這些模型是一項複雜的任務。此外,隨著新模型幾乎每天都在釋出,並且每個模型都有其自己的實現,嘗試所有這些模型絕非易事。

🤗 Transformers 庫的建立就是為了解決這個問題。其目標是提供一個單一的 API,透過該 API 可以載入、訓練和儲存任何 Transformer 模型。該庫的主要功能包括:

  • 易用性:只需兩行程式碼即可下載、載入和使用最先進的 NLP 模型進行推理。
  • 靈活性:從本質上講,所有模型都是簡單的 PyTorch nn.Module 或 TensorFlow tf.keras.Model 類,可以像其各自機器學習 (ML) 框架中的任何其他模型一樣進行處理。
  • 簡潔性:整個庫中幾乎沒有進行任何抽象。 “全部在一個檔案中” 是一個核心概念:模型的前向傳遞完全在一個檔案中定義,因此程式碼本身易於理解和修改。

最後一個特性使 🤗 Transformers 與其他 ML 庫截然不同。這些模型並非構建在跨檔案共享的模組上;相反,每個模型都有自己的層。除了使模型更易於訪問和理解之外,這還允許你輕鬆地在一個模型上進行實驗,而不會影響其他模型。

本章將從一個端到端的示例開始,在這個示例中,我們將一起使用模型和分詞器來複制在 第 1 章 中介紹的 pipeline() 函式。接下來,我們將討論模型 API:我們將深入探討模型和配置類,並向你展示如何載入模型以及它如何處理數值輸入以輸出預測。

然後,我們將瞭解分詞器 API,它是 pipeline() 函式的另一個主要組成部分。分詞器負責處理第一步和最後一步,處理將文字轉換為神經網路的數值輸入,並在需要時將其轉換回文字。最後,我們將向你展示如何處理將多個句子透過模型傳送到準備好的批次中,然後總結所有內容,並更詳細地介紹高階 tokenizer() 函式。

⚠️ 為了充分利用 Model Hub 和 🤗 Transformers 提供的所有功能,我們建議你 建立一個賬戶

© . This site is unofficial and not affiliated with Hugging Face, Inc.