AI 政策 @🤗:對白宮 AI 行動計劃資訊請求的回應
3 月 14 日,我們提交了 Hugging Face 對白宮科技政策辦公室關於白宮 AI 行動計劃資訊請求的回應。我們藉此機會(再次)強調了開放 AI 系統和開放科學在使技術更高效、更可靠地被廣泛採用,並達到最高安全標準方面的基礎作用。本部落格文章提供了我們回應的摘要,全文可在此處檢視。
背景:不要忽視(強)開放模型的潛力
開放的 AI 開發方法不僅通常更透明、適應性更強、科學性更高,而且在許多工上持續複製或超越了廣泛使用的僅限 API 商業產品的效能;並且越來越多地在更短的時間內、以更高的資源效率實現這一點。我們團隊最近的OlympicCoder 以 7B 引數和開源後訓練配方超越 Claude 3.7 在複雜編碼任務上的表現,或者 AI2 完全開放的OLMo 2 模型(帶有開放訓練資料)匹配 o1-mini 的效能,是最近兩個引人注目的例子。這些成功表明,強大的 AI 戰略必須利用開放和協作開發,以最佳地推動技術的效能、採用和安全性。我們在這方面提出了三項主要建議。
建議 1:將開源和開放科學視為 AI 成功的基石
迄今為止最先進的 AI 系統都建立在強大的開放研究(注意力機制、Transformer 架構、更便宜的後訓練演算法)和開源軟體(PyTorch、Hugging Face 庫、超級計算機作業系統)的基礎上——這表明持續支援開放性對於維持進一步進展至關重要。事實也證明,對可自由重用和改編的系統的投資具有強大的經濟乘數效應,推動了各國 GDP 的顯著百分比增長。隨著具有開放權重和訓練技術的 AI 系統在效能和成本方面都越來越成為開發者的有吸引力的選擇,優先發展公共研究基礎設施和廣泛訪問計算資源、可定製模型和可信賴的開放資料集——特別是對於小型開發者和研究人員而言——將對 AI 技術的進一步技術和經濟成功至關重要。
建議 2:優先考慮效率和可靠性以釋放廣泛創新
解決組織採納和調整 AI 技術時面臨的資源限制對於支援其傳播和促進整個開發鏈中採用者的創新至關重要。更小的模型(甚至可以在邊緣裝置上使用)、減少推理計算需求的技術,以及促進中等規模訓練的努力,都支援開發滿足其使用環境特定需求的模型,尤其是在高風險環境中,例如醫療保健,其中通用模型已被證明不可靠。更高效、更具目的性設計的 AI 系統有助於更好的上下文評估、更好的資源利用,並使組織能夠在 AI 開發鏈的所有階段建立技術能力,以確保所有使用者都能利用最符合其需求的系統。
建議 3:透過開放、可追溯和透明的系統保障 AI 安全
最後,如果幾十年來開源軟體的資訊安全和網路安全經驗有任何啟示,開放和透明的 AI 系統將在保障 AI 開發和部署方面發揮基礎性作用,尤其是在最關鍵的設定中——不同的安全要求需要不同程度的開放性。完全透明的模型提供對其訓練資料和程式的訪問,可以支援最廣泛的安全認證。開放基礎設施和實現最新訓練技術的開源工具可以使組織能夠在完全受控的環境中訓練他們所需的模型。可在氣隙環境中執行的開放權重模型可以成為管理資訊風險的關鍵組成部分。優先採用最透明的系統,支援開發所概述的開放資源,並培養在 AI 採用的關鍵設定中利用它們的能力,對於實現更安全的 AI 採用至關重要。
請參閱完整回應以獲取我們更詳細的建議!