Google Cloud 文件

Hugging Face on Google Cloud

Hugging Face's logo
加入 Hugging Face 社群

並獲得增強的文件體驗

開始使用

Hugging Face on Google Cloud

Hugging Face x Google Cloud

Hugging Face 與 Google 在開放科學、開源、雲計算和硬體方面進行合作,使公司能夠利用 Hugging Face 最新的開放模型以及 Google Cloud 最新的雲和硬體功能來構建自己的 AI。

Hugging Face 為 Google Cloud 客戶帶來了新的體驗。他們可以使用 Hugging Face 深度學習容器 (DLCs),在 Google Cloud 提供的任何硬體上,輕鬆地在 Google Kubernetes Engine (GKE)、Vertex AI 或 Cloud Run 上訓練和部署 Hugging Face 模型。

如果您在使用 Hugging Face on Google Cloud 時遇到任何問題,可以透過在該專門討論 Google Cloud 用途的論壇上建立一個新主題來獲得社群支援。

使用 Hugging Face 深度學習容器在 Google Cloud 上訓練和部署模型

Hugging Face 為 Google Cloud 客戶構建了深度學習容器 (DLCs),以便他們在最佳化的環境中執行任何機器學習工作負載,而無需進行任何配置或維護。這些是預裝了深度學習框架和庫(如 🤗 Transformers、🤗 Datasets 和 🤗 Tokenizers)的 Docker 映象。DLCs 使您能夠直接服務和訓練任何模型,從而跳過了從頭開始構建和最佳化服務和訓練環境的複雜過程。

對於訓練,我們的 DLCs 可透過 🤗 Transformers 用於 PyTorch。它們支援在 GPU 和 TPU 上使用 🤗 TRL、Sentence Transformers 或 🧨 Diffusers 等庫進行訓練。

對於推理,我們有一個通用的 PyTorch 推理 DLC,用於在 CPU 和 GPU 上服務使用前面提到的任何框架訓練的模型。此外,還有一個 Text Generation Inference (TGI) DLC,用於在 GPU 和 TPU 上對 LLM 進行高效能文字生成。最後,還有一個 Text Embeddings Inference (TEI) DLC,用於在 CPU 和 GPU 上對嵌入模型進行高效能服務。

DLCs 託管在Google Cloud Artifact Registry 中,可以從任何 Google Cloud 服務(如 Google Kubernetes Engine (GKE)、Vertex AI 或 Cloud Run)使用。

Hugging Face DLCs 是開源的,在Google-Cloud-Containers 儲存庫中根據 Apache 2.0 許可證授權。對於付費支援,我們的專家支援計劃可為您提供來自我們團隊的直接專屬支援。

作為 Google Cloud 客戶,您有兩種選擇可以利用這些 DLCs:

  1. 開始使用,您可以在 Vertex AI 或 GKE 中使用我們的無程式碼整合。
  2. 對於更高階的場景,您可以直接在您的環境中從 Google Cloud Artifact Registry 中拉取容器。此處有一系列筆記本示例。
在 GitHub 上更新

© . This site is unofficial and not affiliated with Hugging Face, Inc.