LLM 課程文件
引言
加入 Hugging Face 社群
並獲得增強的文件體驗
開始使用
簡介
在第三章中,你瞭解瞭如何微調模型以進行文字分類。在本章中,我們將解決以下常見語言任務,這些任務對於使用傳統NLP模型和現代LLM都至關重要:
- 詞元分類
- 掩碼語言建模(如BERT)
- 摘要
- 翻譯
- 因果語言建模預訓練(如GPT-2)
- 問答
這些基本任務構成了大型語言模型(LLM)工作的基礎,理解它們對於有效使用當今最先進的語言模型至關重要。
為此,你需要運用在第三章中學到的關於Trainer
API和🤗 Accelerate庫的所有知識,在第五章中學到的🤗 Datasets庫的知識,以及在第六章中學到的🤗 Tokenizers庫的知識。我們還將像在第四章中那樣,將結果上傳到模型中心,所以本章真的是所有知識彙集之處!
每個部分都可以獨立閱讀,並且會向你展示如何使用Trainer
API或使用你自己的訓練迴圈(使用🤗 Accelerate)來訓練模型。你可以隨意跳過任何一部分,專注於你最感興趣的部分:Trainer
API非常適合微調或訓練你的模型,而無需擔心幕後發生的事情,而使用Accelerate
的訓練迴圈將讓你更容易自定義任何你想要的部分。
如果你按順序閱讀這些部分,你會注意到它們有相當多的共同程式碼和散文。這種重複是故意的,以便你可以(或稍後回來)深入瞭解任何你感興趣的任務,並找到一個完整的可執行示例。