倫理與社會新聞 #3:Hugging Face 上的倫理開放性

釋出於 2023 年 3 月 30 日
在 GitHub 上更新

使命:開放與優秀的機器學習

在我們的機器學習(ML)民主化使命中,我們研究了支援機器學習社群工作如何也能夠促進審查和預防潛在危害。開放式開發和科學使權力去中心化,以便許多人可以共同開發反映其需求和價值觀的人工智慧。雖然開放性使得更廣泛的視角能夠為研究和整體人工智慧做出貢獻,但也面臨著風險控制較少的張力

鑑於這些系統的動態性和快速演變性質,對機器學習工件進行稽核提出了獨特的挑戰。事實上,隨著機器學習模型變得越來越先進,並能夠生成日益多樣化的內容,產生有害或意想不到輸出的可能性也隨之增加,這需要開發強大的稽核和評估策略。此外,機器學習模型的複雜性及其處理的大量資料加劇了識別和解決潛在偏見和道德問題的挑戰。

作為託管方,我們認識到可能對使用者和更廣泛的世界造成危害的責任。這些危害往往以與語境相關的方式不成比例地影響少數民族社群。我們採取了分析每種語境中存在的張力的方法,並對公司和 Hugging Face 社群之間的討論持開放態度。雖然許多模型可以放大危害,尤其是歧視性內容,但我們正在採取一系列措施來識別風險最高的模型並決定採取什麼行動。重要的是,來自不同背景的積極視角是理解、衡量和減輕影響不同人群的潛在危害的關鍵。

除了改進我們的文件實踐外,我們還在制定工具和保障措施,以確保開源科學賦能個人並繼續最大限度地減少潛在危害。

倫理類別

我們促進優秀開放式機器學習的首要任務是推廣工具和積極的機器學習開發示例,這些示例將價值觀和對利益相關者的考量放在首位。這有助於使用者採取具體措施解決突出問題,併為機器學習開發中實際存在的破壞性實踐提供可行的替代方案。

為了幫助我們的使用者發現和參與與倫理相關的機器學習工作,我們整理了一套標籤。這 6 個高階類別基於我們對社群成員貢獻的 Spaces 的分析。它們旨在為您提供一種無行話的方式來思考倫理技術。

  • 嚴謹的工作特別注重以最佳實踐進行開發。在機器學習中,這可能意味著檢查失敗案例(包括進行偏差和公平性審計)、透過安全措施保護隱私,並確保潛在使用者(技術和非技術)瞭解專案的侷限性。
  • 知情同意的工作支援使用和受這些技術影響的人們的自決權。
  • 社會意識的工作向我們展示了技術如何支援社會、環境和科學努力。
  • 可持續的工作突出並探索了使機器學習在生態上可持續的技術。
  • 包容性工作拓寬了機器學習世界中構建者和受益者的範圍。
  • 探索性工作揭示了不平等和權力結構,這挑戰了社群重新思考其與技術的關係。

瞭解更多資訊,請訪問https://huggingface.co/ethics

請注意這些術語,因為我們將在 Hub 上的一些新專案中使用這些標籤,並根據社群貢獻進行更新!

保障措施

對開放釋出採取“全有或全無”的觀點,忽視了決定機器學習工件積極或消極影響的各種語境。對機器學習系統如何共享和再利用擁有更多控制槓桿,有助於在降低促進有害使用或誤用風險的情況下進行協作開發和分析;從而在創新中實現更多的開放性和參與性,以實現共同利益。

我們直接與貢獻者合作,並解決了緊迫的問題。為了更上一層樓,我們正在建立基於社群的流程。這種方法使 Hugging Face 貢獻者以及受貢獻影響的人員能夠提供對模型和平臺可用資料的侷限性、共享和必要附加機制的資訊。我們將關注的三個主要方面是:工件的來源、工件如何被其開發者處理,以及工件如何被使用。在這方面,我們:

  • 為我們的社群推出了標記功能,以確定機器學習工件或社群內容(模型、資料集、空間或討論)是否違反了我們的內容指南
  • 監控我們的社群討論版,以確保 Hub 使用者遵守行為準則
  • 透過模型卡充分記錄我們下載量最大的模型,詳細說明其社會影響、偏見、預期用途和超出範圍的用例,
  • 建立受眾指導標籤,例如“不適合所有受眾”標籤,可以新增到倉庫的模型卡元資料中,以避免不請自來的暴力和性內容,
  • 推廣使用開放負責任人工智慧許可證 (RAIL) 用於模型,例如大型語言模型(BLOOMBigCode),
  • 開展研究,分析哪些模型和資料集具有最高的濫用和惡意使用潛力或記錄。

如何使用標記功能:點選任何模型、資料集、空間或討論上的旗幟圖示


指向報告此模型的旗幟圖示的截圖 登入後,您可以點選“三個點”按鈕,調出報告(或標記)倉庫的功能。這將在倉庫的社群選項卡中開啟一個對話。

分享您標記此專案的原因


顯示描述您標記此專案原因的文字視窗的截圖 請在您的報告中新增儘可能多的相關上下文!這將大大方便倉庫所有者和 Hugging Face 團隊採取行動。

在優先考慮開放科學方面,我們逐案審查潛在危害,並提供協作學習和共同責任的機會。當用戶標記一個系統時,開發人員可以直接且透明地回應問題。本著這種精神,我們要求倉庫所有者盡合理努力解決報告,特別是當報告者花時間提供問題描述時。我們還強調,報告和討論須遵守與平臺其餘部分相同的溝通規範。如果行為變得充滿仇恨和/或辱罵(參見行為準則),版主可以退出或關閉討論。

如果某個特定模型被我們的社群標記為高風險,我們會考慮:

  • 降低機器學習工件在 Hub 趨勢選項卡和動態中的可見性,
  • 請求啟用門控功能以管理對機器學習工件的訪問(參見模型資料集的文件),
  • 請求將模型設為私有,
  • 停用訪問。

如何新增“不適合所有受眾”標籤

編輯模型/資料卡 → 在標籤部分新增not-for-all-audiences → 開啟 PR 並等待作者合併。合併後,倉庫將顯示以下標籤


screenshot showing where to add tags

任何標記為not-for-all-audiences的倉庫在訪問時都會顯示以下彈窗


screenshot showing where to add tags

點選“檢視內容”將允許您正常檢視倉庫。如果您希望始終在沒有彈窗的情況下檢視標記為not-for-all-audiences的倉庫,此設定可以在使用者的內容偏好設定中更改


screenshot showing where to add tags

開放科學需要保障措施,我們的目標之一是建立一個由不同價值觀的權衡所塑造的環境。託管和提供對模型的訪問,以及培養社群和討論,使不同的群體能夠評估社會影響並指導什麼是優秀的機器學習。

您正在研究保障措施嗎?在 Hugging Face Hub 上分享它們!

Hugging Face 最重要的部分是我們的社群。如果您是一位正在致力於使機器學習使用更安全的研究員,特別是對於開放科學而言,我們希望支援和展示您的工作!

以下是 Hugging Face 社群研究人員最近的一些演示和工具

感謝閱讀! 🤗

~ Irene, Nima, Giada, Yacine 和 Elizabeth,代表倫理與社會常駐人員

如果您想引用此部落格文章,請使用以下(按貢獻降序排列)

@misc{hf_ethics_soc_blog_3,
  author    = {Irene Solaiman and
               Giada Pistilli and
               Nima Boscarino and
               Yacine Jernite and
               Elizabeth Allendorf and
               Margaret Mitchell and
               Carlos Muñoz Ferrandis and
               Nathan Lambert and
               Alexandra Sasha Luccioni
               },
  title     = {Hugging Face Ethics and Society Newsletter 3: Ethical Openness at Hugging Face},
  booktitle = {Hugging Face Blog},
  year      = {2023},
  url       = {https://doi.org/10.57967/hf/0487},
  doi       = {10.57967/hf/0487}
}

社群

註冊登入以評論

© . This site is unofficial and not affiliated with Hugging Face, Inc.