AI 政策@🤗:對美國國家電信和資訊管理局 (NTIA) 關於 AI 問責制徵求意見的回應

釋出於 2023 年 6 月 20 日
在 GitHub 上更新

6 月 12 日,Hugging Face 向美國商務部國家電信和資訊管理局 (NTIA) 提交了關於 AI 問責政策資訊徵詢的回應。在回應中,我們強調了文件和透明度規範在推動 AI 問責流程中的作用,以及依靠該技術眾多利益相關者的全部專業知識、觀點和技能來應對這項技術前景的必要性,因其前所未有的增長所帶來的問題遠超任何單一實體所能回答的範疇。

Hugging Face 的使命是“讓優秀的機器學習大眾化”。我們理解,“大眾化”在此上下文中意味著不僅使機器學習系統更易於開發和部署,也讓眾多利益相關者更容易理解、質詢和評判。為此,我們透過教育工作對文件的重視社群準則負責任的開放方法,以及開發無程式碼和低程式碼工具來促進透明度和包容性,讓各種技術背景的人都能夠分析機器學習資料集模型。我們相信,這有助於所有感興趣的人更好地理解機器學習系統的侷限性,以及如何安全地利用它們來最好地服務於使用者和受這些系統影響的人群。這些方法已經在促進問責制方面證明了其效用,尤其是在我們幫助組織的大型多學科研究專案中,包括BigScience(請參閱我們關於該專案社會利害關係的部落格系列)和最近的BigCode 專案(其治理在此有更詳細的描述)。

具體而言,我們對問責機制提出以下建議:

  • 問責機制應關注機器學習開發過程的所有階段。一個完整的 AI 賦能系統其社會影響取決於開發過程中每個階段做出的選擇,其方式無法完全預測,而僅關注部署階段的評估可能會鼓勵那些流於表面合規的行為,導致深層次問題在造成重大傷害之後才得以解決。
  • 問責機制應將內部要求與外部訪問和透明度相結合。良好的文件實踐等內部要求可以塑造更負責任的開發,並明確開發者在促成更安全、更可靠技術方面的責任。然而,外部對內部流程和開發選擇的訪問仍然是必要的,以便核實宣告和文件,並賦能開發鏈之外的眾多技術利益相關者,讓他們能夠有意義地影響其發展並促進自身利益。
  • 問責機制應邀請最廣泛的貢獻者參與,包括直接從事技術開發的開發者、多學科研究社群、倡導組織、政策制定者和記者。理解機器學習技術快速普及所帶來的變革性影響是一項超出任何單一實體能力範圍的任務,需要利用我們廣泛的研究社群及其直接使用者和受影響人群的全部技能和專業知識。

我們相信,在機器學習產出物本身及其評估結果中優先考慮透明度,對於實現這些目標至關重要。您可以在這裡找到我們針對這些要點更詳細的回應。

社群

註冊登入以發表評論

© . This site is unofficial and not affiliated with Hugging Face, Inc.