在 AWS 上部署的文件

AWS 上可用的 DLC

Hugging Face's logo
加入 Hugging Face 社群

並獲得增強的文件體驗

開始使用

AWS 上可用的 DLC

以下列出了 AWS 上所有可用的深度學習容器 (DLC)。

針對每種支援的使用場景(訓練、推理)、加速器型別(CPU、GPU、Neuron)和框架(PyTorch、TGI、TEI)組合都建立了容器。

用於在 AWS Trainium 和 AWS Inferentia 例項上進行訓練和推理的 Neuron DLC 可以在Optimum Neuron 文件中找到。

訓練

Pytorch 訓練 DLC:對於訓練,我們的 DLC 透過 Transformers 可用於 PyTorch。它們支援在 GPU 和 AWS AI 晶片上進行訓練,並使用 TRL、Sentence Transformers 或 Diffusers 等庫。

您還可以在此處跟蹤最新的 Pytorch 訓練 DLC 版本。

容器 URI 加速器
763104351884.dkr.ecr.us-east-1.amazonaws.com/huggingface-pytorch-training:2.5.1-transformers4.49.0-gpu-py311-cu124-ubuntu22.04 GPU
763104351884.dkr.ecr.us-east-1.amazonaws.com/huggingface-pytorch-training-neuronx:2.1.2-transformers4.48.1-neuronx-py310-sdk2.20.0-ubuntu20.04 Neuron

推理

Pytorch 推理 DLC

對於推理,我們有一個通用的 PyTorch 推理 DLC,用於在 CPU、GPU 和 AWS AI 晶片上提供使用上述任何框架訓練的模型。

您還可以在此處跟蹤最新的 Pytorch 推理 DLC 版本。

容器 URI 加速器
763104351884.dkr.ecr.us-east-1.amazonaws.com/huggingface-pytorch-inference:2.6.0-transformers4.49.0-cpu-py312-ubuntu22.04- CPU
763104351884.dkr.ecr.us-east-1.amazonaws.com/huggingface-pytorch-inference:2.6.0-transformers4.49.0-gpu-py312-cu124-ubuntu22.04 GPU
763104351884.dkr.ecr.us-east-1.amazonaws.com/huggingface-pytorch-inference-neuronx:2.1.2-transformers4.43.2-neuronx-py310-sdk2.20.0-ubuntu20.04 Neuron

LLM TGI

還有 LLM 文字生成推理 (TGI) DLC,用於在 GPU 和 AWS AI 晶片上進行 LLM 的高效能文字生成。

您還可以在此處跟蹤最新的 LLM TGI DLC 版本。

容器 URI 加速器
763104351884.dkr.ecr.us-east-1.amazonaws.com/huggingface-pytorch-tgi-inference:2.7.0-tgi3.3.4-gpu-py311-cu124-ubuntu22.04 GPU
763104351884.dkr.ecr.us-east-1.amazonaws.com/huggingface-pytorch-tgi-inference:2.1.2-optimum0.0.28-neuronx-py310-ubuntu22.04 Neuron

文字嵌入推理

最後,還有一個文字嵌入推理 (TEI) DLC,用於在 CPU 和 GPU 上高效能地提供嵌入模型。

容器 URI 加速器
683313688378.dkr.ecr.us-east-1.amazonaws.com/tei-cpu:tei1.7.1-cpu-ubuntu22.04 CPU
683313688378.dkr.ecr.us-east-1.amazonaws.com/tei:tei1.7.1-gpu-cu122-ubuntu22.04 GPU

常見問題

如何為我的用例選擇正確的推理容器?

inference-dlc-decision-tree

注意:請參閱此處獲取推理工具包中支援的任務列表。

注意:瀏覽 Hub 以檢視您的模型是否標記為“text-generation-inference”“text-embeddings-inference”

如何查詢我的容器的 URI?

URI 由 AWS 賬戶 ID 和 AWS 區域構建。這兩個值需要根據您的用例進行替換。假設您想在 GPU 上使用訓練 DLC

  • dlc-aws-account-id:擁有 ECR 儲存庫的 AWS 賬戶的 AWS 賬戶 ID。您可以在此處找到它們
  • region:您要使用它的 AWS 區域。

如何更簡單地查詢我的容器的 URI?

Python SagemMaker SDK 實用函式並不總是最新的,但它比您自己重建映象 URI 要簡單得多。

from sagemaker.huggingface import HuggingFaceModel, get_huggingface_llm_image_uri

print(f"TGI GPU: {get_huggingface_llm_image_uri('huggingface')}")
print(f"TEI GPU: {get_huggingface_llm_image_uri('huggingface-tei')}")
print(f"TEI CPU: {get_huggingface_llm_image_uri('huggingface-tei-cpu')}")
print(f"TGI Neuron: {get_huggingface_llm_image_uri('huggingface-neuronx')}")

對於 Pytorch 訓練和 Pytorch 推理 DLC,沒有此類實用程式。

< > 在 GitHub 上更新

© . This site is unofficial and not affiliated with Hugging Face, Inc.