將倫理原則置於研究生命週期的核心

釋出於 2022 年 5 月 19 日
在 GitHub 上更新

道德章程 - 多模態專案

道德章程的目的

眾所周知,機器學習研究和應用可能導致“資料隱私問題、演算法偏見、自動化風險和惡意使用”(NeurIPS 2021 道德指南)。本短檔案的目的是將我們(Hugging Face 的多模態學習團隊)為我們正在進行的這個專案所採用的道德原則正式化。透過在專案開始時定義這些道德原則,我們將其置於我們機器學習生命週期的核心。

透過對專案中所做的決策、誰在負責系統的哪些方面以及如何聯絡團隊保持透明,我們希望能在早期階段就收到反饋,以便進行有意義的更改,並使關於選擇的討論以我們旨在實現的目標和希望融入的價值觀為基礎。

本檔案是 Hugging Face 的多模態學習團隊(由機器學習研究人員和工程師組成)主導討論的成果,並得到了多位倫理實踐、資料治理和個人隱私專家的貢獻。

本道德章程的侷限性

本檔案是一個正在進行中的工作,反映了截至 2022 年 5 月的思考狀態。“道德人工智慧”沒有共識,也沒有官方定義,我們的考慮很可能會隨著時間的推移而改變。如果更新,我們將在本檔案中直接反映更改,同時提供更改的理由並透過 GitHub 追蹤更新歷史。本檔案無意成為關於道德人工智慧最佳實踐的真實來源。我們相信,即使它不完善,思考我們研究的影響、我們預見的潛在危害以及我們可以採取的減輕這些危害的策略,都是機器學習社群朝著正確方向前進的體現。在整個專案過程中,我們將記錄我們如何將本檔案中描述的價值觀付諸實踐,以及我們在專案背景下觀察到的優點和侷限性。

內容政策

研究當前最先進的多模態系統,我們預見到我們作為這個專案一部分所旨在開發的技術可能存在幾種濫用。我們為我們最終希望防止的一些用例提供了指南:

  • 推廣有害內容和活動,例如暴力、騷擾、欺凌、傷害、仇恨以及所有形式的歧視。針對特定身份亞群的偏見,基於性別、種族、年齡、能力狀況、LGBTQA+ 性取向、宗教、教育、社會經濟地位和其他敏感類別(例如性別歧視/厭女症、種姓制度、種族主義、能力主義、跨性別恐懼症、同性戀恐懼症)。
  • 違反法規、隱私、版權、人權、文化權利、基本權利、法律和任何其他形式的具有約束力的檔案。
  • 生成個人可識別資訊。
  • 在沒有任何問責制和/或以傷害和挑釁他人為目的的情況下生成虛假資訊。
  • 在高風險領域(如醫療、法律、金融和移民)不慎使用模型,這可能從根本上損害人們的生活。

專案價值觀

  • 保持透明: 我們對意圖、資料來源、工具和決策保持透明和開放。透過透明,我們將工作的弱點暴露給社群,從而承擔責任並接受問責。
  • 共享開放且可復現的工作: 開放性涉及兩個方面:過程和結果。我們認為,共享資料、工具和實驗條件的精確描述是良好的研究實踐。研究成果,包括工具和模型檢查點,必須在預期範圍內無歧視地向所有人開放(例如,宗教、種族、性取向、性別、政治取向、年齡、能力)。我們將可訪問性定義為確保我們的研究可以輕鬆地向機器學習研究社群以外的受眾解釋。
  • 公平: 我們將公平定義為對所有人類的平等對待。公平意味著監控和減輕基於種族、性別、殘疾和性取向等特徵的不必要的偏見。為了儘可能限制負面結果,特別是影響邊緣化和弱勢群體的結果,應對資料和模型輸出進行不公平偏見審查,例如預測性警務演算法中的種族主義。
  • 自我批判: 我們意識到自己的不完美,我們應該不斷尋找更好的方法來實踐道德價值觀和其他負責任的人工智慧決策。例如,這包括更好的訓練資料策劃和過濾策略。我們不應該過度宣稱或發表虛假言論和炒作。
  • 給予肯定: 我們應該透過適當的許可和歸屬來尊重和承認他人的工作。

我們注意到,其中一些價值觀有時可能相互衝突(例如,公平與共享開放和可復現的工作,或者尊重個人隱私與共享資料集),並強調需要根據具體情況考慮我們決策的風險和收益。

社群

註冊登入以發表評論

© . This site is unofficial and not affiliated with Hugging Face, Inc.