PEFT
加入 Hugging Face 社群
並獲得增強的文件體驗
PEFT
🤗 PEFT (Parameter-Efficient Fine-Tuning,引數高效微調) 是一個庫,用於將大型預訓練模型高效地應用於各種下游任務,而無需微調模型的所有引數,因為這會耗費巨大的成本。PEFT 方法僅微調少量(額外的)模型引數——顯著降低了計算和儲存成本——同時能產生與完全微調模型相當的效能。這使得在消費級硬體上訓練和儲存大型語言模型(LLM)變得更加容易。
PEFT 與 Transformers、Diffusers 和 Accelerate 庫整合,提供了一種更快、更簡單的方式來載入、訓練和使用大型模型進行推理。
< > 在 GitHub 上更新
© . This site is unofficial and not affiliated with Hugging Face, Inc.