使用 Inference API 部署 AI 漫畫工廠

釋出於 2023 年 10 月 2 日
在 GitHub 上更新

我們最近釋出了 Inference for PROs,這是我們為更廣泛的使用者群體提供更大型模型的新產品。這個機會為使用 Hugging Face 作為平臺執行終端使用者應用程式開闢了新的可能性。

這類應用的一個例子是 AI 漫畫工廠 - 一個非常受歡迎的 Space。成千上萬的使用者已經嘗試用它來創作自己的 AI 漫畫畫板,並由此形成了一個由常規使用者組成的社群。他們分享自己的創作,有些人甚至還提交了 pull request。

在本教程中,我們將向您展示如何復刻和配置 AI 漫畫工廠,以避免長時間的等待,並使用 Inference API 將其部署到您自己的私有空間。這不需要很強的技術技能,但建議您對 API、環境變數以及對 LLM 和 Stable Diffusion 有一定的瞭解。

開始入門

首先,請確保您註冊一個 PRO Hugging Face 賬戶,因為這將允許您訪問 Llama-2 和 SDXL 模型。

AI 漫畫工廠的工作原理

AI 漫畫工廠與在 Hugging Face 上執行的其他 Space 有些不同:它是一個使用 Docker 部署的 NextJS 應用程式,基於客戶端-伺服器架構,需要兩個 API 才能工作

  • 一個語言模型 API (目前是 Llama-2)
  • 一個 Stable Diffusion API (目前是 SDXL 1.0)

複製 Space

要複製 AI 漫畫工廠,請進入 Space 並點選“Duplicate”

duplicate-space-1.jpg

您會發現 Space 所有者、名稱和可見性已經為您填寫好了,所以您可以保留這些值不變。

您的 Space 副本將在一個不需要太多資源的 Docker 容器中執行,因此您可以使用最小的例項。官方的 AI 漫畫工廠 Space 使用了一個更大的 CPU 例項,因為它需要服務於大量的使用者。

要在您的賬戶下執行 AI 漫畫工廠,您需要配置您的 Hugging Face 令牌

duplicate-space-2.jpg

選擇 LLM 和 SD 引擎

AI 漫畫工廠支援多種後端引擎,可以透過兩個環境變數進行配置

  • LLM_ENGINE 用於配置語言模型 (可選值為 INFERENCE_APIINFERENCE_ENDPOINTOPENAI)
  • RENDERING_ENGINE 用於配置影像生成引擎 (可選值為 INFERENCE_APIINFERENCE_ENDPOINTREPLICATEVIDEOCHAIN)。

我們將專注於讓 AI 漫畫工廠在 Inference API 上執行,因此這兩個變數都需要設定為 INFERENCE_API

duplicate-space-3.jpg

您可以在專案的 README.env 配置檔案中找到有關其他引擎和供應商的更多資訊。

配置模型

AI 漫畫工廠預先配置了以下模型

  • LLM_HF_INFERENCE_API_MODEL: 預設值為 meta-llama/Llama-2-70b-chat-hf
  • RENDERING_HF_RENDERING_INFERENCE_API_MODEL: 預設值為 stabilityai/stable-diffusion-xl-base-1.0

您的 PRO Hugging Face 賬戶已經可以訪問這些模型,因此您無需進行任何操作或更改。

更進一步

AI 漫畫工廠對 Inference API 的支援尚處於早期階段,一些功能,例如 SDXL 的 refiner 步驟或影像放大,尚未移植過來。

儘管如此,我們希望這些資訊能讓您開始復刻和調整 AI 漫畫工廠以滿足您的需求。

請隨意嘗試社群中的其他模型,祝您玩得開心!

社群

註冊登入 以發表評論

© . This site is unofficial and not affiliated with Hugging Face, Inc.