社群計算機視覺課程文件
Hugging Face 的努力:倫理與社會 🤗🌎
並獲得增強的文件體驗
開始使用
Hugging Face 的努力:倫理與社會 🤗🌎
希望您喜歡探索計算機視覺中的倫理和偏見單元。在本單元結束之際,讓我們深入瞭解 Hugging Face 為改善社會倫理所做的努力。本章將鼓勵您探索人工智慧倫理和偏見的世界,這是一個不斷發展的領域。Hugging Face 的核心使命是“普及良好機器學習”。那麼,什麼是良好機器學習呢?良好機器學習有一些原則。
普及良好機器學習 🤗
1. 協作:提供工具以促進與開源社群的協作。這些工具的一些例子包括:a. 模型卡(Model Cards)是隨模型附帶的檔案,提供有關模型的資訊,包括其預期用途和潛在限制(包括倫理考量)、訓練引數和實驗資訊、用於訓練的資料集以及評估結果。這確保了上傳到 Hub 的模型是透明並對社群開放的。b. 評估(Evaluation)允許使用者在 Hub 上公開可用的任何資料集上評估任何模型,無需編寫一行程式碼。c. 社群討論(Community discussion)非常重要,無論您是上傳模型、資料集還是空間,或者只是想從作者那裡瞭解更多資訊。每個人都可以提供反饋,標記某個空間,並透過 PR 直接改進或貢獻到儲存庫。d. Discord 群組,供 🤗 社群使用,其中包含各種頻道,討論強化學習、自然語言處理、遊戲開發、音訊、計算機視覺等不同領域。2. 透明度:在模型意圖、資料來源、模型訓練和效能方面保持透明。這方面的努力包括:a. 多模態專案倫理章程(Ethical charter for multimodal project)討論了 🤗 多模態學習小組的價值觀。這是一個針對特定專案的章程。b. Hugging Face 在人工智慧政策方面的工作(Work on AI policy @ 🤗)提及 Hugging Face 對美國國家人工智慧研究資源臨時報告的回應。3. 責任:評估機器學習模型和工具的影響,並使它們即使對於機器學習專業知識較少的人也更具可審計性和可理解性。這方面的一些努力包括:a. 🤗 教育專案(for Education Project)旨在教育來自不同背景的人群,包括初學者和講師。各種專家和團隊成員組織聚會、會議和研討會。
b. 資料測量工具(Data Measurement Tool)是一個互動式介面和開源庫,允許資料集建立者和使用者自動計算對於負責任的資料開發有意義和有用的指標。
Hugging Face Spaces 的類別
接下來,讓我們看看 Hugging Face 如何對 Spaces 進行分類。Hugging Face 根據機器學習中的倫理方面將 Spaces 分為 6 個高階類別。Hugging Face Spaces 的分類如下:
✍️ 嚴謹型
嚴謹型專案特別關注檢查失敗案例、透過安全措施保護隱私,並確保潛在使用者(技術和非技術)瞭解專案的侷限性。一些例子:
- 使用模型卡充分記錄模型的專案。
- 提供模型訓練方式和行為透明度的工具。
- 針對前沿基準進行的評估,並報告分散資料集的結果。
- 展示模型在性別、膚色、種族、年齡或其他屬性上的失敗案例。
- 緩解過擬合和訓練資料記憶等問題的技術。
- 語言模型去毒技術。
一個示例空間是擴散偏見探索器(Diffusion Bias Explorer),它允許使用者比較三個文字到影像模型 SD 1.4、SD 2.0 和 Dall-E 2 在不同提示下的表現,以及它們如何代表不同的職業和形容詞。
🤝 知情同意型
知情同意型技術支援使用和受這些技術影響的人們的自決權。一些例子:
- 展示了從自願、知情並獲得適當補償的來源獲取資料的承諾。
- 設計尊重終端使用者自主性的系統,例如透過隱私保護技術。
- 避免剝削性、沙文主義、”黑暗”以及其他“不道德”的參與模式。
此類別的一些示例空間是:
- CLIP 知道我的臉嗎?(Does CLIP Know My Face?):這個空間允許您選擇一個模型,輸入您的名字並上傳一些圖片。根據這些資訊,模型會嘗試從圖片中預測您的名字。如果它能正確預測多張圖片的名稱,那麼您很可能曾是訓練資料的一部分。
- 照片衛士(Photoguard):這個空間展示了一種透過影像免疫來保護影像免受 SD 等機器學習驅動的照片編輯模型操縱的方法。
👁️🗨️ 具有社會意識型
具有社會意識型的工作向我們展示了機器學習如何支援構建更強大社會的努力。一些例子:
- 將機器學習作為應對氣候變化努力的一部分。
- 構建輔助醫學研究和實踐的工具。
- 用於文字轉語音、影像字幕和其他旨在提高可訪問性的任務的模型。
- 建立數字人文系統,例如用於土著語言復興。
一些示例空間:
🌎 可持續型
這項工作旨在突出和探索使機器學習在生態上可持續發展的技術。一些例子:
- 跟蹤大型語言模型訓練和執行推理的排放。
- 量化和蒸餾方法,以在不犧牲模型質量的情況下減少碳足跡。
🧑🤝🧑 包容型
這些專案旨在拓寬機器學習世界的建設者和受益者的範圍。一些例子:
- 策劃多樣化的資料集,增加服務不足群體的代表性。
- 使用 Hugging Face Hub 上尚未提供的語言訓練語言模型。
- 建立無程式碼和低程式碼框架,允許非技術人員參與人工智慧。
一個示例空間是Promptist Demo。
🤔 好奇型
有些專案對可能已司空見慣的概念採取了全新的方法。這些專案通常植根於批判理論,揭示了不平等和權力結構,挑戰社群重新思考其與技術的關係。一些例子:
- 從土著視角重構人工智慧和機器學習。
- 強調人工智慧中 LGBTQIA2S+ 群體的邊緣化。
- 批判人工智慧系統造成的危害。
- 討論“開放性”在人工智慧研究中的作用。
一個示例空間是PAIR:資料集具有世界觀(PAIR: Datasets Have Worldviews)。
最後,如果您想進一步瞭解 Hugging Face 的努力,請檢視 Hugging Face 上的社會與倫理(Society and Ethics)組織。此外,請檢視#ethics-and-society上的專用頻道。
< > 在 GitHub 上更新