LLM 課程文件
微調,搞定!
加入 Hugging Face 社群
並獲得增強的文件體驗
開始使用
微調,搞定!
這很全面!在前面兩章中,你學習了模型和分詞器,現在你知道如何使用現代最佳實踐為自己的資料微調它們。總結一下,在本章中你:
- 學習了 Hub 上的資料集和現代資料處理技術
- 學習瞭如何高效載入和預處理資料集,包括使用動態填充和資料整理器
- 使用最新的功能,透過高階
Trainer
API 實現了微調和評估 - 從頭開始使用 PyTorch 實現了一個完整的自定義訓練迴圈
- 使用 🤗 Accelerate 使你的訓練程式碼在多個 GPU 或 TPU 上無縫執行
- 應用了現代最佳化技術,如混合精度訓練和梯度累積
🎉 恭喜! 你已經掌握了 Transformer 模型微調的基礎知識。你現在已經準備好處理實際的機器學習專案了!
📖 繼續學習:探索這些資源以深化你的知識
- 🤗 Transformers 任務指南,針對特定的 NLP 任務
- 🤗 Transformers 示例,提供全面的 Jupyter Notebook
🚀 下一步
- 嘗試使用你學到的技術在自己的資料集上進行微調
- 嘗試使用 Hugging Face Hub 上提供的不同模型架構
- 加入 Hugging Face 社群,分享你的專案並獲得幫助
這只是你使用 🤗 Transformers 旅程的開始。在下一章中,我們將探討如何與社群分享你的模型和分詞器,併為不斷增長的預訓練模型生態系統做出貢獻。
你在這裡培養的技能——資料預處理、訓練配置、評估和最佳化——是任何機器學習專案的基礎。無論你是在進行文字分類、命名實體識別、問答,還是任何其他 NLP 任務,這些技術都將對你大有裨益。
💡 成功秘訣
- 在實現自定義訓練迴圈之前,始終使用
Trainer
API 從一個強大的基線開始 - 使用 🤗 Hub 尋找接近你任務的預訓練模型,以獲得更好的起點
- 使用適當的評估指標監控你的訓練,別忘了儲存檢查點
- 利用社群——分享你的模型和資料集,以幫助他人並獲得關於你工作的反饋