AI Policy @🤗: 對美國國家人工智慧研究資源臨時報告的評論
釋出於 2022 年 8 月 1 日
在 GitHub 上更新2022 年 6 月下旬,Hugging Face 向白宮科技政策辦公室和美國國家科學基金會提交了對國家人工智慧研究資源(NAIRR)工作組臨時報告調查結果實施路線圖的資訊請求的回應。作為一個致力於透過賦能所有背景的人為 AI 做貢獻來使機器學習民主化的平臺,我們強烈支援 NAIRR 的努力。
在我們的回應中,我們鼓勵工作組
任命技術和倫理專家作為顧問
- 應優先考慮具有倫理創新記錄的技術專家作為顧問;他們不僅可以校準 NAIRR 在 AI 系統技術上可行、可實施和必要性方面的問題,還可以校準如何避免加劇有害偏見和其他惡意使用 AI 系統的問題。Margaret Mitchell 博士是 AI 領域最著名的技術專家和倫理實踐者之一,也是 Hugging Face 的首席倫理科學家,她自然是一個外部顧問的例子。
資源(模型和資料)文件標準
- NAIRR 提供的系統和資料集文件標準和模板將簡化可訪問性並作為清單使用。這種標準化應確保不同受眾和背景的閱讀能力。模型卡是一種廣泛採用的文件結構,可以作為 AI 模型的強大模板。
使機器學習對跨學科、非技術專家開放
- NAIRR 應提供教育資源以及易於理解的介面和低程式碼或無程式碼工具,供所有相關專家執行復雜任務,例如訓練 AI 模型。例如,Hugging Face 的 AutoTrain 使任何人都能夠,無論技術技能如何,訓練、評估和部署自然語言處理(NLP)模型。
監控開源和開放科學的高濫用和惡意使用潛力
- 危害必須由 NAIRR 和顧問定義並不斷更新,但應包括嚴重的和有害的偏見、政治虛假資訊和仇恨言論。NAIRR 還應投資法律專業知識,以制定 負責任的人工智慧許可證,以便在行為者濫用資源時採取行動。
透過可訪問的工具和資源賦能多元研究人員的視角
- 工具和資源必須可用於不同學科,以及推動負責任創新所需的多種語言和視角。這意味著至少以多種語言提供資源,這可以基於美國使用最廣泛的語言。BigScience 研究研討會是一個由 Hugging Face 和法國政府主辦的由來自不同學科的 1000 多名研究人員組成的社群,是賦能來自 60 多個國家的視角以構建最強大的開源多語言語言模型之一的良好範例。
我們的備忘錄詳細介紹了各項建議。我們渴望有更多資源以負責任的方式廣泛提供 AI。