倫理與社會新聞稿 #1
你好,世界!
Hugging Face 最初是一家開源公司,其創立基於科技領域的一些核心道德價值觀:**協作**、**責任**和**透明**。在開放環境中編寫程式碼意味著您的程式碼(及其中的選擇)對全世界可見,並與您的帳戶關聯,可供他人批評和補充。隨著研究社群開始使用 Hugging Face Hub 託管模型和資料,社群直接將**可復現性**作為公司的另一個基本價值。隨著 Hugging Face 上資料集和模型數量的增長,Hugging Face 的工作人員實施了文件要求和免費教學課程,以滿足研究社群新出現的價值觀,同時補充了圍繞**可審計性**和**理解**導致當前技術的數學、程式碼、流程和人員的價值觀。
如何將人工智慧倫理付諸實踐是一個開放的研究領域。儘管關於應用倫理和人工智慧的理論和學術研究已經存在數十年,但人工智慧開發中倫理的應用和經過測試的實踐在過去十年才開始出現。這部分是為了應對機器學習模型(人工智慧系統的基本組成部分)超越了衡量其進展的基準,導致機器學習系統在影響日常生活的各種實際應用中得到廣泛採用。對於我們這些對推進倫理驅動的人工智慧感興趣的人來說,加入一家部分基於道德原則成立的機器學習公司,正值其開始發展,並且世界各地的人們開始努力解決倫理人工智慧問題之際,這是一個從根本上塑造未來人工智慧面貌的機會。這是一種新型的現代人工智慧實驗:一家**從一開始**就考慮到倫理的科技公司會是怎樣的?從倫理的角度審視機器學習,**民主化**好的機器學習意味著什麼?
為此,我們將在 Hugging Face 的新**倫理與社會**新聞稿中分享我們最近的一些思考和工作,新聞稿將每季在春分和冬至釋出。這就是它!它由我們,“倫理與社會常客”共同完成,這是一個由公司內部不同部門的人組成的開放小組,他們以平等的身份共同探討機器學習在社會中的更廣泛背景以及 Hugging Face 所扮演的角色。我們認為我們**不是**一個專門的團隊至關重要:為了讓一家公司在其工作和流程中做出價值導向的決策,所有相關方都需要共同承擔責任並致力於認識和了解我們工作的倫理風險。
我們正在持續研究關於“好的”機器學習的實踐和研究,試圖提供一些可以定義它的標準。作為一個持續進行的過程,我們透過展望人工智慧的不同可能未來,在當下創造我們所能,以達到一個能協調我們個人以及更廣泛的機器學習社群所持不同價值觀的境地。我們將這種方法根植於 Hugging Face 的創始原則中。
我們力求與開源社群**協作**。這包括提供現代化的文件和評估工具,以及社群討論、Discord和對旨在以符合不同價值觀的方式分享其工作的貢獻者的個人支援。
我們致力於在開發過程中,對我們的思考和流程保持**透明**。這包括在專案開始時分享關於特定專案價值觀的著作,以及我們對AI政策的思考。我們還從社群對此工作的反饋中受益,將其作為我們學習更多內容的資源。
我們將這些工具和人工製品的建立根植於對我們現在和未來所做工作影響的**責任**。優先考慮這一點促使專案設計使機器學習系統更具**可審計性**和**可理解性**——包括對機器學習領域以外的專業人士而言——例如教育專案和我們實驗性的無需編碼的機器學習資料分析工具。
基於這些基本原則,我們採用了一種將價值觀付諸實踐的方法,該方法以專案特定情境及其可能產生的可預測影響為中心。因此,我們在此不提供全球性的價值觀或原則清單;相反,我們將繼續分享專案特定的思考,例如這份新聞通訊,並將在我們瞭解更多資訊時分享更多。由於我們認為社群討論是識別不同價值觀及其影響的關鍵,我們最近向所有能夠線上連線到 Hugging Face Hub 的使用者開放了直接就模型、資料和 Spaces 提供反饋的機會。除了開放討論工具外,我們還建立了行為準則和內容指南,以幫助指導我們認為對包容性社群空間至關重要的討論。我們開發了私人 Hub 用於安全機器學習開發,一個評估庫,使開發人員更容易嚴格評估其模型,用於分析資料偏差和偏見的的程式碼,以及在訓練模型時跟蹤碳排放的工具。我們還在開發新的開放和負責任的人工智慧許可,這是一種直接解決人工智慧系統可能造成危害的現代許可形式。本週,我們還實現了“標記”模型和 Spaces 儲存庫的功能,以便報告倫理和法律問題。
在接下來的幾個月裡,我們將整理其他幾篇關於價值觀、衝突和倫理實踐的文件。我們歡迎(並期待!)對我們所有工作的反饋,並希望透過技術和價值導向的視角繼續與人工智慧社群互動。
感謝閱讀! 🤗
~ Meg,代表倫理與社會常客