text-generation-inference 文件

使用 TGI CLI

Hugging Face's logo
加入 Hugging Face 社群

並獲得增強的文件體驗

開始使用

使用 TGI CLI

您可以使用 TGI 命令列介面(CLI)來下載權重、服務和量化模型,或者獲取有關服務引數的資訊。要安裝 CLI,請參閱安裝部分

text-generation-server 允許您使用 download-weights 命令下載模型,如下所示 👇

text-generation-server download-weights MODEL_HUB_ID

您也可以使用它來量化模型,如下所示 👇

text-generation-server quantize MODEL_HUB_ID OUTPUT_DIR

您可以使用 text-generation-launcher 來服務模型。

text-generation-launcher --model-id MODEL_HUB_ID --port 8080

您可以向 text-generation-launcher 傳遞許多選項和引數。CLI 的文件保持最少,旨在依賴於自生成文件,可以透過執行以下命令找到:

text-generation-launcher --help

您也可以在 Swagger UI 中找到它。

text-generation-server 也有相同的文件。

text-generation-server --help
< > 在 GitHub 上更新

© . This site is unofficial and not affiliated with Hugging Face, Inc.