LLM 課程文件

精通LLM

Hugging Face's logo
加入 Hugging Face 社群

並獲得增強的文件體驗

開始使用

精通LLM

Ask a Question

如果你已經完成了本課程,恭喜你——你現在已經掌握了所有知識和工具,可以用 🤗 Transformers 和 Hugging Face 生態系統解決(幾乎)任何語言任務!

從 NLP 到 LLM

雖然我們已經在課程中涵蓋了許多傳統的 NLP 任務,但該領域已經被大型語言模型(LLM)徹底改變。這些模型極大地擴充套件了語言處理的可能性

  • 它們可以處理多個任務,而無需針對特定任務進行微調
  • 它們擅長遵循指令並適應不同的語境
  • 它們可以為各種應用生成連貫的、符合語境的文字
  • 它們可以透過思維鏈提示等技術進行推理和解決複雜問題

你所學到的基礎 NLP 技能對於有效使用 LLM 仍然至關重要。理解分詞、模型架構、微調方法和評估指標,提供了充分利用 LLM 潛力的所需知識。

我們已經看到了很多不同的資料整理器,所以我們製作了這個小影片,幫助你為每個任務找到合適的整理器

在完成了核心語言任務的快速回顧之後,你應該:

  • 瞭解哪種架構(編碼器、解碼器或編碼器-解碼器)最適合每項任務
  • 理解語言模型的預訓練和微調之間的區別
  • 根據你所學習的軌道,瞭解如何使用 `Trainer` API 和 🤗 Accelerate 或 TensorFlow 和 Keras 的分散式訓練功能來訓練 Transformer 模型
  • 理解文字生成任務中 ROUGE 和 BLEU 等指標的含義和侷限性
  • 瞭解如何在 Hub 上以及使用 🤗 Transformers 的 `pipeline` 與你的微調模型進行互動
  • 認識到 LLM 如何建立並擴充套件傳統 NLP 技術

儘管掌握了所有這些知識,總會遇到程式碼中難以解決的錯誤,或者對如何解決特定的語言處理問題產生疑問。幸運的是,Hugging Face 社群在這裡為你提供幫助!在本課程的最後一部分,我們將探討如何除錯你的 Transformer 模型並有效地尋求幫助。

< > 在 GitHub 上更新

© . This site is unofficial and not affiliated with Hugging Face, Inc.