智慧體課程文件
引言
加入 Hugging Face 社群
並獲得增強的文件體驗
開始使用
導論
歡迎來到第一個額外單元,在這裡你將學習如何為函式呼叫微調大型語言模型(LLM)。
對於 LLM 而言,函式呼叫正迅速成為一項必知的技術。
其理念是,與我們第一單元中僅依賴基於提示的方法不同,函式呼叫在訓練階段訓練你的模型採取行動並解釋觀察結果,從而使你的 AI 更健壯。
我應該何時學習這個額外單元?
此部分是可選的,並且比第一單元更高階,所以你可以選擇現在學習此單元,或者在你的知識因本課程而提高後再次學習。
但別擔心,這個額外單元旨在提供你所需的所有資訊,即使你尚未學習微調的內部工作原理,我們也會引導你瞭解為函式呼叫微調模型的所有核心概念。
你能學習此額外單元的最佳方式是
你將學到什麼
函式呼叫
現代 LLM 如何有效地構建對話以觸發工具。LoRA (低秩自適應)
一種輕量且高效的微調方法,可減少計算和儲存開銷。LoRA 使訓練大型模型更快、更便宜、更易於部署。函式呼叫模型中的思考 → 行動 → 觀察迴圈
一種簡單而強大的方法,用於構建模型如何決定何時(以及如何)呼叫函式、跟蹤中間步驟以及解釋來自外部工具或 API 的結果。新的特殊標記
我們將引入特殊標記,幫助模型區分- 內部“思維鏈”推理
- 傳出的函式呼叫
- 來自外部工具的響應
到本額外單元結束時,你將能夠
- 理解 API 在工具方面的內部工作原理。
- 使用 LoRA 技術微調模型。
- 實施和修改思考 → 行動 → 觀察迴圈,以建立健壯且可維護的函式呼叫工作流。
- 設計和利用特殊標記,無縫分離模型的內部推理與其外部操作。
你還將微調自己的模型以執行函式呼叫。 🔥
讓我們深入瞭解函式呼叫!
< > 在 GitHub 上更新