倫理與社會新聞稿 #5:Hugging Face 走向華盛頓及其他 2023 年夏季思考

釋出於 2023 年 9 月 29 日
在 GitHub 上更新

關於人工智慧中的“倫理”,最重要的一點是它與**價值觀**有關。倫理學不告訴你什麼是對什麼是錯,它提供一套價值觀詞彙——透明、安全、正義——以及在這些價值觀之間進行優先順序排序的框架。今年夏天,我們將我們對人工智慧中價值觀的理解帶到了歐盟、英國和美國的立法者面前,以幫助塑造人工智慧監管的未來。這正是倫理學發揮作用的地方:在法律尚未到位時,幫助開闢前進的道路。

秉持 Hugging Face **開放**和**問責**的核心價值觀,我們在此分享我們所說和所做的一切。這包括我們的執行長 Clem美國國會作證 和在 美國參議院人工智慧洞察論壇發表的宣告;我們關於 歐盟人工智慧法案 的建議;我們向 NTIA 提交的關於人工智慧問責制的意見;以及我們的首席倫理科學家 Meg民主黨核心小組提交的意見。這些討論中常見的許多問題都圍繞著人工智慧中的開放性為何有益,我們在此 分享 我們對這個問題的回答。

秉持我們**民主化**的核心價值觀,我們也投入了大量時間進行公開演講,並有幸與記者交流,以幫助解釋當前人工智慧領域正在發生的事情。這包括:

我們今年夏天釋出的一些講座包括:GiadaTED 演講,探討“倫理”生成式人工智慧是否可能(自動英文字幕非常棒!);YacineMarkkula 應用倫理中心 關於 科技倫理 的演講,以及在 負責任開放基礎模型研討會 關於 負責任開放 的演講;Katie 關於 健康領域的生成式人工智慧 的交流;以及 Meg倫敦資料周 做的關於 開放構建更好的 AI 的演講。

當然,我們也在日常工作(我們的“實際工作”)中取得了進展。**親和力**這一基本價值觀貫穿於我們的工作,因為我們專注於如何以社會和人類價值觀為導向,塑造一個讓每個人都感到受歡迎的人工智慧。這包括 Maria 和其他人的 新人工智慧音訊課程Katie 關於 開放獲取臨床語言模型 的資源;Nazneen 和其他人的 負責任生成式人工智慧 教程;我們 FAccT 論文中的 生成式人工智慧釋出的梯度 (影片) 和 機器學習中倫理章程、法律工具和技術文件的闡述 (影片);以及關於 以參與式、跨學科方法繪製文字到影像人工智慧風險面評估跨模態和社會生成式人工智慧系統影響 (影片) 的研討會。

我們還在**公平**和**正義**的目標上取得了進展,進行了 偏見和危害測試,最近已應用於新的 Hugging Face 多模態模型 IDEFICS。我們致力於如何負責任地實現**透明**,包括 更新內容政策(由 Giada 牽頭)。我們透過 使用機器學習改進元資料(由 Daniel 牽頭)來推進對 Hub 上語言**多樣性**的支援,並透過 向資料集新增更多描述性統計資料(由 Polina 牽頭)來支援人工智慧的**嚴謹性**,以促進更好地理解人工智慧學習了什麼以及如何對其進行評估。

根據我們過去這個季節的經驗,我們現在提供了一系列 Hugging Face 中在當前 AI 倫理討論中特別有用的資源,可在此處獲取:https://huggingface.co/society-ethics

最後,我們驚喜地看到許多社會與倫理領域的常客獲得了公眾認可,包括 IreneSasha 入選 麻省理工學院 35 位 35 歲以下創新者(Hugging Face 佔 AI 35 位 35 歲以下創新者的四分之一!);Meg 入選有影響力 AI 創新者榜單(WIRED, Fortune);以及 MegClem 入選 《時代》雜誌 AI 領域 100 位 100 歲以下人物。我們也非常遺憾地告別了我們的同事 Nathan,他在我們將倫理與 AI 系統的強化學習相結合的工作中發揮了重要作用。作為他的臨別贈禮,他提供了關於 在 RLHF 中實現倫理 AI 面臨的挑戰 的更多細節。

感謝您的閱讀!

-- Meg,代表 Hugging Face 的 倫理與社會常駐成員

社群

註冊登入 發表評論

© . This site is unofficial and not affiliated with Hugging Face, Inc.