推理提供商文件
您的第一個推理提供商呼叫
並獲得增強的文件體驗
開始使用
您的第一個推理提供商呼叫


在本指南中,我們將幫助您使用推理提供商進行您的第一個 API 呼叫。
許多開發者避免使用開源 AI 模型,因為他們認為部署很複雜。本指南將向您展示如何在五分鐘內使用最先進的模型,而無需任何基礎設施設定。
我們將使用 FLUX.1-schnell 模型,這是一個強大的文字到影像模型。
本指南假設您擁有一個 Hugging Face 帳戶。如果您沒有,可以在 huggingface.co 免費建立一個。
步驟 1:在 Hub 上找到一個模型
訪問 Hugging Face Hub 並尋找帶有“推理提供商”過濾器的模型,您可以選擇您想要的提供商。我們將選擇 `fal`。
在此示例中,我們將使用 FLUX.1-schnell,一個強大的文字到影像模型。接下來,導航到模型頁面並向下滾動以在右側找到推理小部件。
步驟 2:嘗試互動式小部件
在編寫任何程式碼之前,直接在模型頁面上嘗試該小部件
在這裡,您可以直接在瀏覽器中透過任何可用提供商測試模型。您還可以複製相關的程式碼片段以在您自己的專案中使用。
- 輸入一個提示,例如“日落時寧靜的山地景觀”
- 點選“生成”
- 觀察模型在幾秒鐘內建立影像
此小部件使用您將要在程式碼中實現的相同端點。
您需要一個 Hugging Face 帳戶(在 huggingface.co 免費建立)和剩餘的信用點數才能使用該模型。
步驟 3:從點選到程式碼
現在我們用 Python 來重現它。點選小部件中的“檢視程式碼片段”按鈕,檢視生成的程式碼片段。
您需要使用有效的 Hugging Face 使用者訪問令牌填充此片段。您可以在您的設定頁面找到您的使用者訪問令牌。
將您的令牌設定為環境變數
export HF_TOKEN="your_token_here"
您可以將此行新增到您的`.bash_profile`或類似檔案中,以便所有終端環境自動獲取令牌。
Python 或 TypeScript 程式碼片段將使用環境變數中的令牌。
安裝所需包
pip install huggingface_hub
您現在可以使用程式碼片段在您的應用程式中生成影像。
import os
from huggingface_hub import InferenceClient
client = InferenceClient(
provider="auto",
api_key=os.environ["HF_TOKEN"],
)
# output is a PIL.Image object
image = client.text_to_image(
"Astronaut riding a horse",
model="black-forest-labs/FLUX.1-schnell",
)
發生了什麼?
幹得好!您已經成功使用了生產級 AI 模型,無需任何複雜的設定。只需幾行程式碼,您就
- 連線到一個強大的文字到影像模型
- 從文字生成自定義影像
- 將結果儲存在本地
您剛才使用的模型執行在專業的底層架構上,自動處理擴充套件、最佳化和可靠性。
深入瞭解:提供商選擇
您可能已經注意到上述程式碼示例中的 `provider="auto"` 引數。這是推理提供商的一個關鍵特性,它允許您控制哪個基礎設施提供商處理您的請求。
`auto` 之所以強大,是因為它
- 讓提供商之間輕鬆切換,並測試不同提供商針對您的用例的效能。
- 它還提供了在提供商不可用時的回退機制。
但如果您想更具體,也可以指定一個提供商。讓我們看看如何操作。
理解提供商選擇
當您使用 `provider="auto"`(這是預設設定)時,系統會根據您在推理提供商設定中的偏好順序,自動為所選模型選擇第一個可用提供商。這提供了
- 自動故障轉移:如果一個提供商不可用,系統會嘗試下一個
- 簡化設定:無需研究哪些提供商支援您的模型
- 最佳路由:系統為您處理提供商選擇
指定特定提供商
或者,如果您有特定要求,可以明確選擇提供商
import os
from huggingface_hub import InferenceClient
client = InferenceClient(api_key=os.environ["HF_TOKEN"])
# Using automatic provider selection (default)
image_auto = client.text_to_image(
"Astronaut riding a horse",
model="black-forest-labs/FLUX.1-schnell",
provider="auto" # This is the default
)
# Using a specific provider
image_fal = client.text_to_image(
"Astronaut riding a horse",
model="black-forest-labs/FLUX.1-schnell",
provider="fal-ai" # Explicitly use Fal AI
)
# Using another specific provider
image_replicate = client.text_to_image(
"Astronaut riding a horse",
model="black-forest-labs/FLUX.1-schnell",
provider="replicate" # Explicitly use Replicate
)
何時使用每種方法
在以下情況下使用 `provider="auto"`:
- 您剛開始使用推理提供商
- 您想要最簡單的設定和最大的可靠性
- 您沒有特定的基礎設施要求
- 您希望在提供商不可用時自動故障轉移
在以下情況下使用特定提供商:
- 您需要一致的效能特性
- 您有特定的計費或成本要求
- 您想測試不同提供商在您的用例中的效能
下一步
現在您已經瞭解了使用 AI 模型是多麼簡單,您可能會想:
- “提供商”系統在幕後做了什麼?
- 計費是如何運作的?
- 您還可以使用哪些其他模型?
繼續閱讀下一篇指南,瞭解提供商生態系統,並對身份驗證和計費做出明智選擇。
< > 在 GitHub 上更新