智慧體課程文件

引言

Hugging Face's logo
加入 Hugging Face 社群

並獲得增強的文件體驗

開始使用

導論

Bonus Unit 1 Thumbnail

歡迎來到第一個額外單元,在這裡你將學習如何為函式呼叫微調大型語言模型(LLM)

對於 LLM 而言,函式呼叫正迅速成為一項必知的技術。

其理念是,與我們第一單元中僅依賴基於提示的方法不同,函式呼叫在訓練階段訓練你的模型採取行動並解釋觀察結果,從而使你的 AI 更健壯。

我應該何時學習這個額外單元?

此部分是可選的,並且比第一單元更高階,所以你可以選擇現在學習此單元,或者在你的知識因本課程而提高後再次學習。

但別擔心,這個額外單元旨在提供你所需的所有資訊,即使你尚未學習微調的內部工作原理,我們也會引導你瞭解為函式呼叫微調模型的所有核心概念。

你能學習此額外單元的最佳方式是

  1. 瞭解如何使用 Transformers 微調 LLM,如果不是這種情況,請檢視此處

  2. 瞭解如何使用SFTTrainer微調我們的模型,要了解更多資訊,請檢視此文件


你將學到什麼

  1. 函式呼叫
    現代 LLM 如何有效地構建對話以觸發工具

  2. LoRA (低秩自適應)
    一種輕量且高效的微調方法,可減少計算和儲存開銷。LoRA 使訓練大型模型更快、更便宜、更易於部署

  3. 函式呼叫模型中的思考 → 行動 → 觀察迴圈
    一種簡單而強大的方法,用於構建模型如何決定何時(以及如何)呼叫函式、跟蹤中間步驟以及解釋來自外部工具或 API 的結果。

  4. 新的特殊標記
    我們將引入特殊標記,幫助模型區分

    • 內部“思維鏈”推理
    • 傳出的函式呼叫
    • 來自外部工具的響應

到本額外單元結束時,你將能夠

  • 理解 API 在工具方面的內部工作原理。
  • 使用 LoRA 技術微調模型。
  • 實施修改思考 → 行動 → 觀察迴圈,以建立健壯且可維護的函式呼叫工作流。
  • 設計和利用特殊標記,無縫分離模型的內部推理與其外部操作。

你還將微調自己的模型以執行函式呼叫。 🔥

讓我們深入瞭解函式呼叫

< > 在 GitHub 上更新

© . This site is unofficial and not affiliated with Hugging Face, Inc.