optimum-tpu 文件
🤗 Optimum TPU
並獲得增強的文件體驗
開始使用
🤗 Optimum TPU
Optimum TPU 提供了所有必要的機制,以利用和最佳化在 Google Cloud TPU 裝置上執行的 AI 工作負載。Optimum-TPU 是一個 HuggingFace 解決方案,旨在為 TPU 平臺最佳化 HuggingFace 產品。這使得使用者可以在 TPU 上使用 HuggingFace 的功能和易於使用的庫,並獲得最佳效能。我們目前優化了 Transformers 和 TGI,並集成了 HuggingFace Hub,這樣你就可以訪問 HuggingFace 龐大的模型庫。
如果你想開始在 TPU 上使用 HuggingFace 產品,那麼你來對地方了
該 API 提供了與 HuggingFace Transformers 總體相同的使用者體驗,只需進行最少的更改即可實現推理和訓練的效能目標。
Optimum TPU 旨在儘可能減少利用 Google Cloud TPU 加速器的阻力。因此,我們提供了一個可透過 pip 安裝的包,以確保每個人都能輕鬆上手。
pip install optimum-tpu -f https://storage.googleapis.com/libtpu-releases/index.html
為何選擇 TPU
TPU 在處理涉及矩陣計算、訓練週期長和批次量大的大規模機器學習工作負載方面表現出色。相比之下,GPU 為具有自定義操作或 CPU/GPU 混合工作負載的模型提供了更大的靈活性。TPU 不適合需要頻繁分支、高精度算術或自定義訓練迴圈操作的工作負載。更多資訊請參見 https://cloud.google.com/tpu/docs/intro-to-tpu#when_to_use_tpus
為何選擇 Optimum-TPU
Optimum-TPU 是連線 HuggingFace 生態系統和 Google Cloud TPU 硬體的橋樑。它極大地簡化了原本複雜的整合過程,提供了一個直觀的介面,該介面在保持高效能的同時,抽象化了 TPU 特定的實現細節。透過自動最佳化、高效的批處理策略、智慧記憶體管理等方式,Optimum-TPU 確保你的模型在 TPU 硬體上以最高效率執行。該框架與 HuggingFace Hub 的模型和資料集目錄深度整合,使得部署和微調最先進的模型變得簡單,同時保留了 HuggingFace 庫熟悉的易用性,並最大化了 TPU 硬體的能力。