加入 Hugging Face 社群
並獲取增強文件體驗
開始使用
簡介
在 第三章 中,您瞭解瞭如何微調文字分類模型。在本章中,我們將解決以下常見的 NLP 任務
- 詞性標註
- 掩碼語言建模(如 BERT)
- 摘要
- 翻譯
- 因果語言模型預訓練(如 GPT-2)
- 問答
為此,您需要利用在 第三章 中學習到的關於 Trainer API 和 🤗 Accelerate 庫的所有知識,以及在 第五章 中學習到的 🤗 Datasets 庫和在 第六章 中學習到的 🤗 Tokenizers 庫。我們還將像在 第四章 中一樣將我們的結果上傳到模型中心,因此這確實是所有內容彙集在一起的一章!
每個部分都可以獨立閱讀,並向您展示如何使用 Trainer API 或您自己的訓練迴圈(使用 🤗 Accelerate)訓練模型。您可以隨意跳過任一部分,並專注於您最感興趣的部分:Trainer API 非常適合微調或訓練您的模型,而無需擔心幕後發生的事情,而使用 Accelerate 的訓練迴圈可以讓您更輕鬆地自定義任何您想要的部件。
如果您按順序閱讀這些部分,您會注意到它們在程式碼和文字方面有相當多的共同點。重複是故意的,以便您可以深入瞭解(或稍後再回來)任何您感興趣的任務,並找到一個完整的可工作示例。