Transformers 文件
Transformers
並獲得增強的文件體驗
開始使用
Transformers
Transformers 為文字、計算機視覺、音訊、影片和多模態模型提供了最先進的機器學習模型定義框架,支援推理和訓練。
它將模型定義集中化,使這一定義在整個生態系統中得到統一。`transformers` 是跨框架的樞紐:如果一個模型定義得到支援,它將與大多數訓練框架(Axolotl、Unsloth、DeepSpeed、FSDP、PyTorch-Lightning 等)、推理引擎(vLLM、SGLang、TGI 等)以及利用 `transformers` 模型定義的相鄰建模庫(llama.cpp、mlx 等)相容。
我們致力於支援新的最先進模型,並透過使其模型定義簡單、可定製且高效來普及它們的使用。
在 Hugging Face Hub 上有超過 100 萬個 Transformers 模型檢查點 供您使用。
立即探索 Hub,找到一個模型並使用 Transformers 幫助您快速上手。
功能
Transformers 提供了使用最先進的預訓練模型進行推理或訓練所需的一切。一些主要功能包括:
- Pipeline:為許多機器學習任務(如文字生成、影像分割、自動語音識別、文件問答等)提供簡單且最佳化的推理類。
- Trainer:一個全面的訓練器,支援混合精度、torch.compile 和 FlashAttention 等功能,用於訓練和分散式訓練 PyTorch 模型。
- generate:使用大語言模型(LLM)和視覺語言模型(VLM)進行快速文字生成,包括對流式處理和多種解碼策略的支援。
設計
閱讀我們的設計理念,瞭解更多關於 Transformers 的設計原則。
Transformers 專為開發者、機器學習工程師和研究人員設計。其主要設計原則是:
- 快速易用:每個模型僅由三個主要類(配置、模型和預處理器)實現,並可使用 Pipeline 或 Trainer 快速用於推理或訓練。
- 預訓練模型:透過使用預訓練模型而不是訓練一個全新的模型來減少您的碳足跡、計算成本和時間。每個預訓練模型都儘可能地復現原始模型,並提供最先進的效能。
學習
如果您是 Transformers 的新手或想了解更多關於 transformer 模型的資訊,我們建議您從 LLM 課程 開始。這門綜合課程涵蓋了從 transformer 模型工作原理的基礎知識到各種任務的實際應用。您將學習完整的工作流程,從整理高質量資料集到微調大語言模型和實現推理能力。該課程包含理論和實踐練習,幫助您在學習過程中建立扎實的 transformer 模型基礎知識。
< > 在 GitHub 上更新