Hugging Face 與 Google 合作,共同推進開放人工智慧

在 Hugging Face,我們希望所有公司都能利用開放模型和開源技術構建自己的 AI。我們的目標是構建一個開放平臺,讓資料科學家、機器學習工程師和開發人員能夠輕鬆訪問社群的最新模型,並在他們選擇的平臺中使用這些模型。
今天,我們很高興地宣佈與 Google Cloud 建立戰略合作伙伴關係,共同實現機器學習的普及。我們將與 Google 在開放科學、開源、雲和硬體方面進行合作,使公司能夠利用 Hugging Face 最新的開放模型和 Google Cloud 最新的雲和硬體功能構建自己的 AI。
開放科學的合作
從最初的 Transformer 到 Vision Transformer,Google 為開放 AI 研究做出了最重要的貢獻,並促使 AI 社群一次一個模型地改變世界,現在 Hugging Face 上託管了超過 100 萬個基於 Transformer 模型的模型、資料集和 AI 應用程式。
我們的戰略合作伙伴關係將有助於擴大 Google 和 Hugging Face 為使最新 AI 研究更易於社群訪問所做的努力。
開源的合作
從 Tensorflow 到 JAX,Google 貢獻了一些最重要的開源工具,使研究人員和資料科學家能夠構建自己的 AI 模型,並透過快速迭代建立模型效能改進的良性迴圈。
我們的戰略合作伙伴關係將加速我們的合作,透過 Hugging Face 開源庫輕鬆訪問最新的 AI 創新,無論您使用哪種框架。
與 Google Cloud 客戶的合作
如今,每月有數十萬 Hugging Face 使用者活躍在 Google Cloud 上,下載模型以建立生成式 AI 應用程式。
我們的戰略合作伙伴關係將為 Google Cloud 客戶提供新的體驗,使他們能夠在 Google Kubernetes Engine (GKE) 和 Vertex AI 中輕鬆訓練和部署 Hugging Face 模型。客戶將受益於 Google Cloud 中獨特的硬體功能,例如 TPU 例項、由 NVIDIA H100 Tensor Core GPU 提供支援的 A3 VM,以及由 Intel Sapphire Rapid CPU 提供支援的 C3 VM。
與 Hugging Face Hub 使用者的合作
每月有數百萬研究人員、資料科學家、開發人員和 AI 愛好者依賴 Hugging Face Hub 輕鬆建立和體驗最新的 AI 模型和應用程式。
我們與 Google 在開放科學、開源和 Google Cloud 方面的合作成果將提供給 Hugging Face Hub 使用者,並在 2024 年全年帶來新的體驗。模型將透過 Inference Endpoints 輕鬆部署到 Google Cloud 進行生產。AI 構建者將能夠透過 Hugging Face Spaces 上的 TPU 加速他們的應用程式。組織將能夠利用他們的 Google Cloud 賬戶輕鬆管理他們的企業 Hub 訂閱的使用和計費。
接下來
我們迫不及待地想為您提供這些新體驗。敬請期待本季度開始的公告!現在,我們與您分享我們 CEO 的寄語:
“Google Cloud 和 Hugging Face 秉持共同的願景,即讓生成式 AI 更易於開發者訪問併產生更大的影響力。此次合作確保 Hugging Face 上的開發者能夠訪問 Google Cloud 專門構建的 AI 平臺 Vertex AI,以及我們安全的 инфраструктура,這將加速下一代 AI 服務和應用程式的開發,” Google Cloud 執行長 Thomas Kurian 表示。
“透過此次新的合作,我們將使 Hugging Face 使用者和 Google Cloud 客戶能夠輕鬆地將最新的開放模型與 Google Cloud 領先的最佳化 AI 基礎設施和工具(包括 Vertex AI 和 TPU)結合使用,從而顯著提升開發者構建自己 AI 模型的能力,” Hugging Face 執行長 Clement Delangue 表示。