LLM 課程文件

引言

Hugging Face's logo
加入 Hugging Face 社群

並獲得增強的文件體驗

開始使用

簡介

Ask a Question

第三章中,你瞭解瞭如何微調模型以進行文字分類。在本章中,我們將解決以下常見語言任務,這些任務對於使用傳統NLP模型和現代LLM都至關重要:

  • 詞元分類
  • 掩碼語言建模(如BERT)
  • 摘要
  • 翻譯
  • 因果語言建模預訓練(如GPT-2)
  • 問答

這些基本任務構成了大型語言模型(LLM)工作的基礎,理解它們對於有效使用當今最先進的語言模型至關重要。

為此,你需要運用在第三章中學到的關於Trainer API和🤗 Accelerate庫的所有知識,在第五章中學到的🤗 Datasets庫的知識,以及在第六章中學到的🤗 Tokenizers庫的知識。我們還將像在第四章中那樣,將結果上傳到模型中心,所以本章真的是所有知識彙集之處!

每個部分都可以獨立閱讀,並且會向你展示如何使用Trainer API或使用你自己的訓練迴圈(使用🤗 Accelerate)來訓練模型。你可以隨意跳過任何一部分,專注於你最感興趣的部分:Trainer API非常適合微調或訓練你的模型,而無需擔心幕後發生的事情,而使用Accelerate的訓練迴圈將讓你更容易自定義任何你想要的部分。

如果你按順序閱讀這些部分,你會注意到它們有相當多的共同程式碼和散文。這種重複是故意的,以便你可以(或稍後回來)深入瞭解任何你感興趣的任務,並找到一個完整的可執行示例。

< > 在 GitHub 上更新

© . This site is unofficial and not affiliated with Hugging Face, Inc.