Google Cloud 文件
Hugging Face on Google Cloud
並獲得增強的文件體驗
開始使用
Hugging Face on Google Cloud
![]()
Hugging Face 與 Google 在開放科學、開源、雲計算和硬體方面進行合作,使公司能夠利用 Hugging Face 最新的開放模型以及 Google Cloud 最新的雲和硬體功能來構建自己的 AI。
Hugging Face 為 Google Cloud 客戶帶來了新的體驗。他們可以使用 Hugging Face 深度學習容器 (DLCs),在 Google Cloud 提供的任何硬體上,輕鬆地在 Google Kubernetes Engine (GKE)、Vertex AI 或 Cloud Run 上訓練和部署 Hugging Face 模型。
如果您在使用 Hugging Face on Google Cloud 時遇到任何問題,可以透過在該專門討論 Google Cloud 用途的論壇上建立一個新主題來獲得社群支援。
使用 Hugging Face 深度學習容器在 Google Cloud 上訓練和部署模型
Hugging Face 為 Google Cloud 客戶構建了深度學習容器 (DLCs),以便他們在最佳化的環境中執行任何機器學習工作負載,而無需進行任何配置或維護。這些是預裝了深度學習框架和庫(如 🤗 Transformers、🤗 Datasets 和 🤗 Tokenizers)的 Docker 映象。DLCs 使您能夠直接服務和訓練任何模型,從而跳過了從頭開始構建和最佳化服務和訓練環境的複雜過程。
對於訓練,我們的 DLCs 可透過 🤗 Transformers 用於 PyTorch。它們支援在 GPU 和 TPU 上使用 🤗 TRL、Sentence Transformers 或 🧨 Diffusers 等庫進行訓練。
對於推理,我們有一個通用的 PyTorch 推理 DLC,用於在 CPU 和 GPU 上服務使用前面提到的任何框架訓練的模型。此外,還有一個 Text Generation Inference (TGI) DLC,用於在 GPU 和 TPU 上對 LLM 進行高效能文字生成。最後,還有一個 Text Embeddings Inference (TEI) DLC,用於在 CPU 和 GPU 上對嵌入模型進行高效能服務。
DLCs 託管在Google Cloud Artifact Registry 中,可以從任何 Google Cloud 服務(如 Google Kubernetes Engine (GKE)、Vertex AI 或 Cloud Run)使用。
Hugging Face DLCs 是開源的,在Google-Cloud-Containers 儲存庫中根據 Apache 2.0 許可證授權。對於付費支援,我們的可為您提供來自我們團隊的直接專屬支援。
作為 Google Cloud 客戶,您有兩種選擇可以利用這些 DLCs:
- 要開始使用,您可以在 Vertex AI 或 GKE 中使用我們的無程式碼整合。
- 對於更高階的場景,您可以直接在您的環境中從 Google Cloud Artifact Registry 中拉取容器。此處有一系列筆記本示例。