LLM 課程文件

微調,搞定!

Hugging Face's logo
加入 Hugging Face 社群

並獲得增強的文件體驗

開始使用

微調,搞定!

Ask a Question

這很全面!在前面兩章中,你學習了模型和分詞器,現在你知道如何使用現代最佳實踐為自己的資料微調它們。總結一下,在本章中你:

  • 學習了 Hub 上的資料集和現代資料處理技術
  • 學習瞭如何高效載入和預處理資料集,包括使用動態填充和資料整理器
  • 使用最新的功能,透過高階 Trainer API 實現了微調和評估
  • 從頭開始使用 PyTorch 實現了一個完整的自定義訓練迴圈
  • 使用 🤗 Accelerate 使你的訓練程式碼在多個 GPU 或 TPU 上無縫執行
  • 應用了現代最佳化技術,如混合精度訓練和梯度累積

🎉 恭喜! 你已經掌握了 Transformer 模型微調的基礎知識。你現在已經準備好處理實際的機器學習專案了!

📖 繼續學習:探索這些資源以深化你的知識

🚀 下一步

  • 嘗試使用你學到的技術在自己的資料集上進行微調
  • 嘗試使用 Hugging Face Hub 上提供的不同模型架構
  • 加入 Hugging Face 社群,分享你的專案並獲得幫助

這只是你使用 🤗 Transformers 旅程的開始。在下一章中,我們將探討如何與社群分享你的模型和分詞器,併為不斷增長的預訓練模型生態系統做出貢獻。

你在這裡培養的技能——資料預處理、訓練配置、評估和最佳化——是任何機器學習專案的基礎。無論你是在進行文字分類、命名實體識別、問答,還是任何其他 NLP 任務,這些技術都將對你大有裨益。

💡 成功秘訣

  • 在實現自定義訓練迴圈之前,始終使用 Trainer API 從一個強大的基線開始
  • 使用 🤗 Hub 尋找接近你任務的預訓練模型,以獲得更好的起點
  • 使用適當的評估指標監控你的訓練,別忘了儲存檢查點
  • 利用社群——分享你的模型和資料集,以幫助他人並獲得關於你工作的反饋
< > 在 GitHub 上更新

© . This site is unofficial and not affiliated with Hugging Face, Inc.