使用 Inference API 部署 AI 漫畫工廠
我們最近釋出了 Inference for PROs,這是我們為更廣泛的使用者群體提供更大型模型的新產品。這個機會為使用 Hugging Face 作為平臺執行終端使用者應用程式開闢了新的可能性。
這類應用的一個例子是 AI 漫畫工廠 - 一個非常受歡迎的 Space。成千上萬的使用者已經嘗試用它來創作自己的 AI 漫畫畫板,並由此形成了一個由常規使用者組成的社群。他們分享自己的創作,有些人甚至還提交了 pull request。
在本教程中,我們將向您展示如何復刻和配置 AI 漫畫工廠,以避免長時間的等待,並使用 Inference API 將其部署到您自己的私有空間。這不需要很強的技術技能,但建議您對 API、環境變數以及對 LLM 和 Stable Diffusion 有一定的瞭解。
開始入門
首先,請確保您註冊一個 PRO Hugging Face 賬戶,因為這將允許您訪問 Llama-2 和 SDXL 模型。
AI 漫畫工廠的工作原理
AI 漫畫工廠與在 Hugging Face 上執行的其他 Space 有些不同:它是一個使用 Docker 部署的 NextJS 應用程式,基於客戶端-伺服器架構,需要兩個 API 才能工作
複製 Space
要複製 AI 漫畫工廠,請進入 Space 並點選“Duplicate”
您會發現 Space 所有者、名稱和可見性已經為您填寫好了,所以您可以保留這些值不變。
您的 Space 副本將在一個不需要太多資源的 Docker 容器中執行,因此您可以使用最小的例項。官方的 AI 漫畫工廠 Space 使用了一個更大的 CPU 例項,因為它需要服務於大量的使用者。
要在您的賬戶下執行 AI 漫畫工廠,您需要配置您的 Hugging Face 令牌
選擇 LLM 和 SD 引擎
AI 漫畫工廠支援多種後端引擎,可以透過兩個環境變數進行配置
LLM_ENGINE
用於配置語言模型 (可選值為INFERENCE_API
、INFERENCE_ENDPOINT
、OPENAI
)RENDERING_ENGINE
用於配置影像生成引擎 (可選值為INFERENCE_API
、INFERENCE_ENDPOINT
、REPLICATE
、VIDEOCHAIN
)。
我們將專注於讓 AI 漫畫工廠在 Inference API 上執行,因此這兩個變數都需要設定為 INFERENCE_API
您可以在專案的 README 和 .env 配置檔案中找到有關其他引擎和供應商的更多資訊。
配置模型
AI 漫畫工廠預先配置了以下模型
LLM_HF_INFERENCE_API_MODEL
: 預設值為meta-llama/Llama-2-70b-chat-hf
RENDERING_HF_RENDERING_INFERENCE_API_MODEL
: 預設值為stabilityai/stable-diffusion-xl-base-1.0
您的 PRO Hugging Face 賬戶已經可以訪問這些模型,因此您無需進行任何操作或更改。
更進一步
AI 漫畫工廠對 Inference API 的支援尚處於早期階段,一些功能,例如 SDXL 的 refiner 步驟或影像放大,尚未移植過來。
儘管如此,我們希望這些資訊能讓您開始復刻和調整 AI 漫畫工廠以滿足您的需求。
請隨意嘗試社群中的其他模型,祝您玩得開心!