倫理與社會新聞稿 #5:Hugging Face 走向華盛頓及其他 2023 年夏季思考
關於人工智慧中的“倫理”,最重要的一點是它與**價值觀**有關。倫理學不告訴你什麼是對什麼是錯,它提供一套價值觀詞彙——透明、安全、正義——以及在這些價值觀之間進行優先順序排序的框架。今年夏天,我們將我們對人工智慧中價值觀的理解帶到了歐盟、英國和美國的立法者面前,以幫助塑造人工智慧監管的未來。這正是倫理學發揮作用的地方:在法律尚未到位時,幫助開闢前進的道路。
秉持 Hugging Face **開放**和**問責**的核心價值觀,我們在此分享我們所說和所做的一切。這包括我們的執行長 Clem 向 美國國會作證 和在 美國參議院人工智慧洞察論壇發表的宣告;我們關於 歐盟人工智慧法案 的建議;我們向 NTIA 提交的關於人工智慧問責制的意見;以及我們的首席倫理科學家 Meg 向 民主黨核心小組提交的意見。這些討論中常見的許多問題都圍繞著人工智慧中的開放性為何有益,我們在此 分享 我們對這個問題的回答。
秉持我們**民主化**的核心價值觀,我們也投入了大量時間進行公開演講,並有幸與記者交流,以幫助解釋當前人工智慧領域正在發生的事情。這包括:
- 來自 Sasha 關於**人工智慧能源使用和碳排放**的評論(《大西洋月刊》、《衛報》(兩次)、《新科學家》、The Weather Network、《華爾街日報》(兩次)),以及撰寫 《華爾街日報》關於該主題的部分評論文章;關於**人工智慧末日風險**的思考(彭博社、《泰晤士報》、Futurism、Sky News);關於**生成式人工智慧中的偏見**的詳細資訊(彭博社、NBC、Vox);討論**邊緣化工人如何為人工智慧建立資料**(《環球郵報》、《大西洋月刊》);強調**人工智慧中性別歧視的影響**(VICE);以及在《麻省理工科技評論》中提供的關於 人工智慧文字檢測、開放模型釋出 和 人工智慧透明度 的見解。
- 來自 Nathan 關於**語言模型和開放釋出**的最新進展評論(WIRED, VentureBeat, Business Insider, Fortune)。
- 來自 Meg 關於**人工智慧和錯誤資訊**的評論(CNN、半島電視臺、《紐約時報》);人工智慧中**公正處理藝術家作品**的必要性(《華盛頓郵報》);**生成式人工智慧**的進展及其與更大福祉的關係(《華盛頓郵報》、VentureBeat);記者如何透過報道**更好地塑造人工智慧的發展**(CJR);以及解釋人工智慧中**困惑度**的基本統計概念(Ars Technica);並強調**性別歧視**的模式(Fast Company)。
- 來自 Irene 關於理解**人工智慧監管格局**的評論(麻省理工科技評論,巴倫週刊)。
- 來自 Yacine 關於**開源與人工智慧立法**的評論 (VentureBeat, TIME) 以及**版權問題** (VentureBeat)。
- 來自 Giada 關於**AI“奇點”**(Popular Mechanics)和**AI“感知”**(RFI, Radio France)概念的評論;關於**人工浪漫的危險**的思考(Analytics India Magazine);以及解釋**價值對齊**(The Hindu)。
我們今年夏天釋出的一些講座包括:Giada 的 TED 演講,探討“倫理”生成式人工智慧是否可能(自動英文字幕非常棒!);Yacine 在 Markkula 應用倫理中心 關於 科技倫理 的演講,以及在 負責任開放基礎模型研討會 關於 負責任開放 的演講;Katie 關於 健康領域的生成式人工智慧 的交流;以及 Meg 為 倫敦資料周 做的關於 開放構建更好的 AI 的演講。
當然,我們也在日常工作(我們的“實際工作”)中取得了進展。**親和力**這一基本價值觀貫穿於我們的工作,因為我們專注於如何以社會和人類價值觀為導向,塑造一個讓每個人都感到受歡迎的人工智慧。這包括 Maria 和其他人的 新人工智慧音訊課程;Katie 關於 開放獲取臨床語言模型 的資源;Nazneen 和其他人的 負責任生成式人工智慧 教程;我們 FAccT 論文中的 生成式人工智慧釋出的梯度 (影片) 和 機器學習中倫理章程、法律工具和技術文件的闡述 (影片);以及關於 以參與式、跨學科方法繪製文字到影像人工智慧風險面 和 評估跨模態和社會生成式人工智慧系統影響 (影片) 的研討會。
我們還在**公平**和**正義**的目標上取得了進展,進行了 偏見和危害測試,最近已應用於新的 Hugging Face 多模態模型 IDEFICS。我們致力於如何負責任地實現**透明**,包括 更新內容政策(由 Giada 牽頭)。我們透過 使用機器學習改進元資料(由 Daniel 牽頭)來推進對 Hub 上語言**多樣性**的支援,並透過 向資料集新增更多描述性統計資料(由 Polina 牽頭)來支援人工智慧的**嚴謹性**,以促進更好地理解人工智慧學習了什麼以及如何對其進行評估。
根據我們過去這個季節的經驗,我們現在提供了一系列 Hugging Face 中在當前 AI 倫理討論中特別有用的資源,可在此處獲取:https://huggingface.co/society-ethics。
最後,我們驚喜地看到許多社會與倫理領域的常客獲得了公眾認可,包括 Irene 和 Sasha 入選 麻省理工學院 35 位 35 歲以下創新者(Hugging Face 佔 AI 35 位 35 歲以下創新者的四分之一!);Meg 入選有影響力 AI 創新者榜單(WIRED, Fortune);以及 Meg 和 Clem 入選 《時代》雜誌 AI 領域 100 位 100 歲以下人物。我們也非常遺憾地告別了我們的同事 Nathan,他在我們將倫理與 AI 系統的強化學習相結合的工作中發揮了重要作用。作為他的臨別贈禮,他提供了關於 在 RLHF 中實現倫理 AI 面臨的挑戰 的更多細節。
感謝您的閱讀!
-- Meg,代表 Hugging Face 的 倫理與社會常駐成員