AWS Trainium & Inferentia 文件
Stable Diffusion XL Turbo
加入 Hugging Face 社群
並獲得增強的文件體驗
開始使用
Stable Diffusion XL Turbo
概述
SDXL Turbo 是一種對抗性時間蒸餾 Stable Diffusion XL (SDXL) 模型,能夠在最少 1 步內執行推理(檢視 🤗diffusers
瞭解更多詳情)。
在 optimum-neuron
中,您可以
- 使用
NeuronStableDiffusionXLPipeline
類進行編譯和執行推理。
在這裡,我們將使用 Optimum CLI 編譯 stabilityai/sdxl-turbo
模型。
匯出到 Neuron
optimum-cli export neuron --model stabilityai/sdxl-turbo --batch_size 1 --height 512 --width 512 --auto_cast matmul --auto_cast_type bf16 sdxl_turbo_neuron/
文字到影像
現在我們可以使用預編譯的模型在 Inf2 上從文字提示生成影像
from optimum.neuron import NeuronStableDiffusionXLPipeline
pipe = NeuronStableDiffusionXLPipeline.from_pretrained("sdxl_turbo_neuron/", data_parallel_mode="all")
prompt = ["Self-portrait oil painting, a beautiful cyborg with golden hair, 8k"] * 2
images = pipe(prompt=prompt, guidance_scale=0.0, num_inference_steps=1).images
Inf2 例項包含一個或多個 Neuron 裝置,每個 Neuron 裝置包括 2 個 NeuronCore-v2。預設情況下,我們將 LCM 的整個管道載入到兩個 Neuron 核。這意味著當批處理大小可被 2 整除時,您可以充分利用兩個核的計算能力。
您希望我們在 🤗Optimum-neuron
中支援其他擴散功能嗎?請向 Optimum-neuron
Github 倉庫 提交問題或在 HuggingFace 社群論壇 上與我們討論,謝謝 🤗!