Transformers 文件

Transformers

Hugging Face's logo
加入 Hugging Face 社群

並獲得增強的文件體驗

開始使用

Transformers

Transformers 為文字、計算機視覺、音訊、影片和多模態模型提供了最先進的機器學習模型定義框架,支援推理和訓練。

它將模型定義集中化,使這一定義在整個生態系統中得到統一。`transformers` 是跨框架的樞紐:如果一個模型定義得到支援,它將與大多數訓練框架(Axolotl、Unsloth、DeepSpeed、FSDP、PyTorch-Lightning 等)、推理引擎(vLLM、SGLang、TGI 等)以及利用 `transformers` 模型定義的相鄰建模庫(llama.cpp、mlx 等)相容。

我們致力於支援新的最先進模型,並透過使其模型定義簡單、可定製且高效來普及它們的使用。

Hugging Face Hub 上有超過 100 萬個 Transformers 模型檢查點 供您使用。

立即探索 Hub,找到一個模型並使用 Transformers 幫助您快速上手。

功能

Transformers 提供了使用最先進的預訓練模型進行推理或訓練所需的一切。一些主要功能包括:

  • Pipeline:為許多機器學習任務(如文字生成、影像分割、自動語音識別、文件問答等)提供簡單且最佳化的推理類。
  • Trainer:一個全面的訓練器,支援混合精度、torch.compile 和 FlashAttention 等功能,用於訓練和分散式訓練 PyTorch 模型。
  • generate:使用大語言模型(LLM)和視覺語言模型(VLM)進行快速文字生成,包括對流式處理和多種解碼策略的支援。

設計

閱讀我們的設計理念,瞭解更多關於 Transformers 的設計原則。

Transformers 專為開發者、機器學習工程師和研究人員設計。其主要設計原則是:

  1. 快速易用:每個模型僅由三個主要類(配置、模型和預處理器)實現,並可使用 PipelineTrainer 快速用於推理或訓練。
  2. 預訓練模型:透過使用預訓練模型而不是訓練一個全新的模型來減少您的碳足跡、計算成本和時間。每個預訓練模型都儘可能地復現原始模型,並提供最先進的效能。
HuggingFace Expert Acceleration Program

學習

如果您是 Transformers 的新手或想了解更多關於 transformer 模型的資訊,我們建議您從 LLM 課程 開始。這門綜合課程涵蓋了從 transformer 模型工作原理的基礎知識到各種任務的實際應用。您將學習完整的工作流程,從整理高質量資料集到微調大語言模型和實現推理能力。該課程包含理論和實踐練習,幫助您在學習過程中建立扎實的 transformer 模型基礎知識。

< > 在 GitHub 上更新

© . This site is unofficial and not affiliated with Hugging Face, Inc.