社群計算機視覺課程文件
AI 中的倫理與偏見 🧑🤝🧑
並獲得增強的文件體驗
開始使用
AI 中的倫理與偏見 🧑🤝🧑
我們希望您發現 ImageNet Roulette 案例研究很有趣,並瞭解了一般 AI 模型可能出錯的地方。在本章中,我們將再次探討一個強大的技術,它具有酷炫的應用,但如果不加控制,也可能引發倫理問題。我們首先快速總結一下 ImageNet Roulette 案例研究及其後續影響。
- ImageNet Roulette 是一個 AI 模型因其固有的偏見以及忽視標籤和資料預處理階段而出現問題的絕佳例子。
- 該實驗是手工製作的,僅僅是為了演示如果不加控制,事情可能會出錯。
- 該專案促使 ImageNet 團隊對資料集進行了大量修正,並實施了適當的措施來緩解問題,例如人臉模糊、刪除有害和觸發性的同義詞集、刪除相應的影像等。
- 最後,它開啟了持續的討論,並推動了風險緩解方面的研究工作。
在我們瞭解另一種強大技術的例子之前,讓我們退後一步,思考一些問題。總的來說,技術是好是壞?電力是好是壞?網際網路是普遍安全還是有害?等等。在我們的旅程開始時,請記住這些問題。
深度偽造 🎥
想象一下,您是一位應屆畢業生,想要學習深度學習。您報名參加了麻省理工學院(MIT)的“深度學習導論(MIT 6.S191)”課程。為了讓事情變得更有趣,課程團隊釋出了一個關於深度學習可以實現的事情的酷炫影片。在這裡觀看影片
麻省理工學院 6.S191 課程介紹,其中使用了深度偽造技術,營造出巴拉克·奧巴馬歡迎學生的印象。是的,課程介紹環節被製作成這樣,給人的印象是學生們受到了巴拉克·奧巴馬本人的歡迎。這真是個酷炫的應用,一門深度學習課程,其介紹經過精心策劃,展示了深度生成模型的一種用例。對於初學者來說,這會非常吸引人,讓他們對這項技術產生興趣,每個人都想嘗試一下。畢竟,您可以使用一臺不錯的 GPU 在幾分鐘內輕鬆製作出這樣的影片和影像,並開始釋出相關的表情包、帖子等。讓我們看看這項技術的另一個例子,但其後果卻截然不同。想象一下,如果我們在選舉或戰爭期間,能夠製作出一位有影響力的政治領導人或演員的相同深度偽造影片。同樣的假影片可以用來散佈仇恨和虛假資訊,導致不同人群被邊緣化。即使該人沒有散佈虛假資訊,影片本身也可能引起大規模的憤怒。這可能會令人恐懼。然而,主要問題在於,一旦虛假資訊傳播開來,危害就已經造成,人們已經被分化,即使後來證實影片是被篡改的。因此,只有在第一時間不將篡改的影片公之於眾,才能避免危害。這使得這項技術變得危險,但技術本身是安全還是有害?技術本身永遠無所謂好壞,但其用途(誰使用它以及用於什麼目的)可能會產生好或壞的影響。
深度偽造是藉助深度生成計算機視覺模型建立的合成媒體。您實際上可以透過它用不同的人的影像來操縱影像,甚至生成影片。音訊深度偽造是另一種可以與計算機視覺對應技術互補的技術,透過模仿所考慮物件的精確聲音。這只是深度偽造如何造成破壞的一個例子,但實際上,其影響遠比這危險,因為它們可能對受害者的生活產生終生影響。
什麼是 AI 中的倫理與偏見?
根據前面的例子,這項技術需要注意的幾個方面是:
- 在使用影像/影片進行操縱和製作新媒體之前,獲得主體的同意。
- 促進合成媒體建立的演算法,這些媒體可用於操縱。
- 可用於檢測此類合成媒體的演算法。
- 瞭解這些演算法及其後果。
💡請檢視 The Consentful Tech Project 此處。該專案旨在提高意識,制定策略,並分享技能,以幫助人們負責任地構建和使用技術。
現在讓我們根據這些例子對一些定義進行形式化。那麼什麼是倫理和偏見呢?倫理可以簡單地定義為一套道德原則,幫助我們區分是非。而人工智慧倫理則可以定義為一套價值觀、原則和技術,它們採用廣泛接受的是非標準來指導人工智慧開發和使用中的道德行為。人工智慧倫理是一個多學科領域,研究如何最佳化人工智慧的有利影響,同時降低風險和不利結果。該領域涉及各種利益相關者:
- 研究人員、工程師、開發人員和人工智慧倫理學家:負責模型、演算法、資料集開發和管理的團隊。
- 政府機構、法律機構(如律師):負責人工智慧倫理發展監管方面的主體和人員。
- 公司和組織:處於提供人工智慧產品和服務前沿的利益相關者。
- 公民:在日常生活中使用人工智慧服務和產品,並深受技術影響的人們。
AI 中的偏見指的是演算法輸出中的偏見,這可能由於模型開發或訓練資料期間的假設而發生。這些假設源於負責開發的內在人類偏見。因此,AI 模型和演算法開始反映這些偏見。這些偏見可能會擾亂倫理發展或原則,因此需要加以關注並設法緩解它們。我們將在本單元的後續章節中詳細介紹偏見、它們如何滲透到不同的 AI 模型中、它們的型別、評估和緩解(重點關注 CV 模型)。為了更好地理解 AI 中的倫理,讓我們仔細研究一下倫理 AI 的原則。
倫理 AI 原則 🤗 🌎
阿西莫夫機器人三定律 🤖
歷史上有很多關於技術倫理發展的著作。最早的可以追溯到著名的科幻作家艾薩克·阿西莫夫。他提出了機器人三定律,同時考慮到自主人工智慧代理的潛在風險。這些定律是:
- 機器人不得傷害人類,或坐視人類受到傷害。
- 機器人必須服從人類的命令,除非這些命令與第一定律衝突。
- 在不違反第一或第二定律的情況下,機器人必須保護自己的存在。
阿西洛馬人工智慧原則 🧑🏻⚖️🧑🏻🎓🧑🏻💻
阿西莫夫的機器人定律是技術倫理領域最早的作品之一。2017年,在加利福尼亞州阿西洛馬會議中心舉行了一次會議。這次會議旨在討論人工智慧對社會的影響。會議的成果是制定了人工智慧負責任開發的指導方針。該指導方針包含23項原則,由約5,000人簽署,其中包括844名人工智慧和機器人研究人員。
負責任人工智慧開發的23項阿西洛馬人工智慧原則
💡您可以在此處檢視23項阿西洛馬人工智慧原則的完整列表和簽署人。
這些原則是人工智慧模型一般倫理開發和實施的指南。現在讓我們來看看聯合國教科文組織關於倫理人工智慧準則的最新工作。
聯合國教科文組織報告:人工智慧倫理建議 🧑🏼🤝🧑🏼🌐
聯合國教科文組織於 2021 年 11 月通過了一項名為**“人工智慧倫理建議”**的報告,該報告作為人工智慧倫理的全球標準,並獲得了 193 個成員國的採納。此前關於人工智慧倫理的指導方針在可操作政策方面有所欠缺。而聯合國教科文組織的最新報告則允許政策制定者將核心原則轉化為具體行動,涉及資料治理、環境、性別、健康等不同領域。該建議的四個核心價值觀為人機互動系統奠定了基礎:
- 人權和人類尊嚴:尊重、保護和促進人權、基本自由和人類尊嚴。
- 生活在和平、公正和相互聯絡的社會中。
- 確保多樣性和包容性。
- 環境和生態系統蓬勃發展。
人工智慧負責任發展的11個關鍵政策領域。
以下是聯合國教科文組織提出的以人權為中心的人工智慧倫理十項核心原則:
- 適度和無害:人工智慧系統的使用不得超出實現合法目的所必需的範圍。應採用風險評估來防止此類使用可能造成的傷害。
- 安全與保障:人工智慧參與者應避免和解決意外傷害(安全風險)以及易受攻擊的漏洞(安全風險)。
- 隱私權和資料保護:在人工智慧生命週期中必須保護和促進隱私。還應建立充分的資料保護框架。
- 多方利益相關者和適應性治理與協作:在使用資料時必須尊重國際法和國家主權。此外,多樣化利益相關者的參與對於人工智慧治理的包容性方法至關重要。
- 責任與問責:人工智慧系統應可審計和可追溯。應建立監督、影響評估、審計和盡職調查機制,以避免與人權規範衝突以及對環境福祉的威脅。
- 透明度和可解釋性:人工智慧系統的倫理部署取決於其透明度和可解釋性(T&E)。T&E 的程度應與上下文相適應,因為 T&E 與隱私、安全和保障等其他原則之間可能存在張力。
- 人類監督與決策:會員國應確保人工智慧系統不取代最終的人類責任和問責制。
- 可持續性:人工智慧技術應根據其對“可持續性”的影響進行評估,“可持續性”被理解為一套不斷演變的目標,包括聯合國可持續發展目標中設定的目標。
- 意識和素養:應透過開放和可及的教育、公民參與、數字技能和人工智慧倫理培訓以及媒體和資訊素養來促進公眾對人工智慧和資料的理解。
- 公平和非歧視:人工智慧參與者應促進社會公正、公平和非歧視,同時採取包容性方法,確保所有人都能享受到人工智慧的益處。
💡要閱讀聯合國教科文組織關於“人工智慧倫理建議”的完整報告,您可以訪問此處。
在本單元結束時,我們還將探討 Hugging Face 為確保人工智慧倫理實踐所做的努力。在下一章中,我們將深入瞭解偏見、型別以及它們如何滲透到不同的人工智慧模型中。
< > 在 GitHub 上更新