text-generation-inference 文件

支援的模型

Hugging Face's logo
加入 Hugging Face 社群

並獲得增強的文件體驗

開始使用

支援的模型

文字生成推理支援服務最佳化的模型。以下部分列出了支援的模型(VLM 和 LLM)。

如果上述列表沒有您想服務的模型,根據模型的管道型別,您可以嘗試初始化並服務該模型,以檢視其表現如何,但對於未最佳化的模型,效能無法保證。

# for causal LMs/text-generation models
AutoModelForCausalLM.from_pretrained(<model>, device_map="auto")
# or, for text-to-text generation models
AutoModelForSeq2SeqLM.from_pretrained(<model>, device_map="auto")

如果您希望服務一個已存在於本地資料夾中的受支援模型,只需指向該本地資料夾即可。

text-generation-launcher --model-id <PATH-TO-LOCAL-BLOOM>
< > 在 GitHub 上更新

© . This site is unofficial and not affiliated with Hugging Face, Inc.