人工智慧與版權法:美國關於訓練、可版權性和數字複製品的框架
本文對截至 2025 年 8 月的人工智慧相關版權法進行了資訊性分析。雖然主要審查美國法律,包括最近的聯邦法院判決和美國版權局的指南,但它也涉及相關的國際發展。本分析不構成法律建議。如有具體法律問題,請諮詢合格的法律顧問。
執行摘要
許多大型人工智慧模型使用包含受版權保護作品的資料集進行訓練,這引發了一些基本的法律問題:何時需要授權使用,創作者應如何獲得補償,以及人工智慧生成的輸出物擁有哪些權利。本文考察了管轄這些問題的現行法律框架,借鑑了近期的司法判決、美國版權局的指南以及新興的國際監管方法。
版權局確認,使用受版權保護的作品訓練人工智慧模型涉及複製行為,需要獲得許可或適用合理使用。純粹由人工智慧生成的作品因缺乏人類作者身份而無法獲得版權保護。
美國版權局於 2025 年 5 月釋出了關於生成式人工智慧訓練的第三部分綜合報告,為版權法如何適用於人工智慧發展提供了權威指導。該局確認,使用受版權保護的作品訓練生成式人工智慧模型涉及多項觸及版權所有者專有權的行為,包括在資料收集、整理和訓練過程中的複製行為。核心問題在於這些使用是否符合現行法律下的合理使用。美國版權局,《版權與人工智慧,第三部分:生成式人工智慧訓練》,第 26-31 頁 (2025) [下稱《2025 年人工智慧訓練報告》]。
版權局在其 2025 年的報告中就人工智慧生成內容確立了明確的界限。純粹由人工智慧生成的作品因缺乏人類作者身份而無法獲得版權保護,這是哥倫比亞特區巡迴上訴法院在 Thaler v. Perlmutter, 130 F.4th 1039, 1044-45 (D.C. Cir. 2025) 案中確認的基本要求。與美國版權局 2025 年 1 月的報告一致,僅憑提示詞不足以對輸出的表達元素提供足夠的人類控制來確立作者身份;保護可能延伸至可感知的人類創作元素、充分的修改,或創造性的選擇和編排。美國版權局,《版權與人工智慧,第二部分:可版權性》,第 7-10, 16-21, 37-38 頁 (2025) [下稱《2025 年人工智慧可版權性報告》]。
此外,版權局 2024 年 7 月關於數字複製品的報告指出了聯邦立法保護個人免受未經授權數字複製品侵害的迫切需求。版權局建議國會設立一項聯邦權利,保護所有個人在有生之年免受故意傳播未經授權的數字複製品的行為,以解決隨著深度偽造技術擴散而日益凸顯的州和聯邦法律空白。美國版權局,《版權與人工智慧,第一部分:數字複製品》,第 57 頁 (2024) [下稱《2024 年數字複製品報告》]。
近期的法院判決已開始塑造人工智慧訓練的合理使用格局。在 Bartz v. Anthropic PBC 案中,阿爾薩普法官部分批准並部分駁回了 Anthropic 的即決判決動議,認為該公司的訓練使用在第一個合理使用因素下是“極具變革性的”,但拒絕駁回關於涉嫌“盜版”圖書館副本的索賠。Bartz v. Anthropic PBC, No. C 24-05417 WHA, 2025 WL 1741691, at *9, *31 (N.D. Cal. June 23, 2025)。兩天後,在 Kadrey v. Meta Platforms, Inc. 案中,查布里亞法官以原告未能提供有意義的市場損害證據為由,批准了 Meta 的即決判決,並對市場損害理論進行了廣泛討論。Kadrey v. Meta Platforms, Inc., No. 23-cv-03417-VC, 2025 WL 1752484, at *1, *34–*36 (N.D. Cal. June 25, 2025)。儘管基於此理由判決 Meta 勝訴,法院承認,當被問及未經許可使用受版權保護的材料訓練人工智慧是否違法時,“雖然細節決定成敗,但在大多數情況下,答案很可能是肯定的”。Id. at *1。再過兩天,Kadrey 案的法院就原告根據《美國法典》第 17 編第 1202(b) 條提出的 DMCA 索賠釋出了一份單獨的命令,裁定當基礎使用構成合理使用時,移除版權管理資訊的行為不能“誘導、促成、便利或掩蓋”侵權。Kadrey v. Meta Platforms, Inc., No. 23-cv-03417-VC, 2025 WL 1786418, at *1–*2 (N.D. Cal. June 27, 2025)。綜合來看,這些判決表明,在人工智慧訓練背景下,合理使用的判定仍然是高度事實特定的,技術保障措施、訓練資料的來源以及市場損害的具體證據在分析中起著至關重要的作用。
人工智慧訓練的許可授權格局正在迅速發展,但在不同行業和內容型別之間存在不均衡。有記錄的交易表明了大型自願市場的出現,包括新聞集團與 OpenAI 價值約 2.5 億美元的五年期協議、Shutterstock 在 2023 年獲得 1.04 億美元的人工智慧許可收入、Taylor & Francis 與微軟的協議(涉及 1000 萬美元預付款及後續費用),以及 Wiley 於 2024 年 3 月 7 日披露的 2300 萬美元人工智慧許可收入。主要出版商、新聞機構和圖片庫公司已建立了創收數億美元的許可計劃,這表明對於某些高價值、易於識別的內容類別,自願的市場解決方案正在出現。然而,對於其他型別的作品,特別是在專業創意產業之外創作或所有權分散的作品,仍然存在重大挑戰。版權局建議目前允許這些自願市場繼續發展,暫不進行政府幹預,但如果出現特定的市場失靈,則可以考慮有針對性的解決方案,如擴大集體許可。見《2025 年人工智慧訓練報告》,第 103-06 頁。
國際上的做法差異很大,給跨國經營的公司帶來了合規挑戰。《人工智慧法案》於 2024 年 8 月 1 日生效,其中通用人工智慧的義務(第 53 條)自 2025 年 8 月 2 日起適用,包括要求制定遵守《數字單一市場指令》第 4(3) 條選擇退出權的版權合規政策,併發布足夠詳細的訓練內容摘要。歐洲議會和理事會 2024 年 6 月 13 日關於制定人工智慧統一規則的法規 (EU) 2024/1689,第 53 條,2024 O.J. (L 1689) 1。日本的第 30-4 條允許資料分析,但旨在欣賞表達本身的使用——包括旨在輸出作品的微調和某些 RAG 配置——則被排除在外。文化廳,《關於日本人工智慧與版權的一般理解》,第 12-15 頁 (2024 年 5 月)。截至 2025 年 8 月,英國已就類似歐盟的帶選擇退出權的文字和資料探勘 (TDM) 例外進行了諮詢,但尚未立法;《2025 年資料(使用與訪問)法》涉及資料訪問和處理,而非針對人工智慧訓練的版權例外。這些不同的方法引發了關於國際協調和條約遵守的問題,隨著技術及其監管的不斷發展,這些問題需要持續關注。
人工智慧時代版權的憲法基礎
美國憲法為理解人工智慧時代版權的作用提供了基本框架。《憲法》第一條第八款第八項授予國會權力,“為促進科學和實用藝術的進步,在有限時間內保障作者和發明人對其各自作品和發明的專有權”。美國憲法第一條第八款第八項。這一憲法條款,被稱為智慧財產權條款或版權條款,確立了版權保護的目的和限制。
最高法院一貫將該條款解釋為建立一種功利主義的交易,而非自然權利。在 Feist Publications, Inc. v. Rural Telephone Service Co. 案中,法院解釋說,“版權的主要目標不是獎勵作者的勞動,而是促進科學和實用藝術的進步。” 499 U.S. 340, 349 (1991)。這一憲法目的在人工智慧背景下具有新的意義,法院必須在激勵人類創造力與促進技術創新之間取得平衡。
憲法文字施加了塑造人工智慧相關版權問題的關鍵限制。首先,對“作者”的提及被解釋為要求人類作者身份。哥倫比亞特區巡迴上訴法院在 2025 年的 Thaler v. Perlmutter 案,130 F.4th 1039, 1044-45 (D.C. Cir. 2025) 的判決中,正是基於這一憲法基礎,確認了人工智慧系統不能成為版權法下的作者。法院強調,《版權法》的人類作者身份要求源於憲法使用的“作者”一詞,該詞一直被理解為指人類。
其次,“有限時間”的規定確保作品最終進入公共領域,從而建立一個可自由用於訓練人工智慧系統的素材庫。這一時間限制反映了制憲者們的理解,即版權應在私人激勵與公眾獲取知識和文化之間取得平衡。正如最高法院在 Eldred v. Ashcroft 案中指出的,版權的有限期限透過確保創意作品最終成為“公共領域的一部分,供所有人自由使用”來服務於憲法目的。537 U.S. 186, 219 (2003)。
獨創性要求雖然在憲法文字中沒有明確規定,但被認為是憲法所要求的。最高法院在 Feist 案中裁定,獨創性是“所有作品的憲法要求”,並且需要獨立創作和最低限度的創造力。499 U.S. at 351。這一版權保護的憲法底線在評估人工智慧生成內容時變得尤為重要,這些內容可能看起來富有創意,但缺乏憲法所要求的人類起源。
憲法框架也為合理使用原則在人工智慧訓練中的應用提供了資訊。查布里亞法官在 Kadrey v. Meta 案的意見書中明確援引了憲法目的,指出版權法的主要關切是“維護人類創作藝術和科學作品的激勵”。這種憲法視角表明,那些破壞這些激勵的受版權保護作品的使用——例如訓練人工智慧來向市場大量投放競爭作品——在合理使用分析中可能尤其不受青睞。
版權局的 2025 年報告反覆回到這些憲法基礎上。該局強調,將版權保護擴充套件到人工智慧生成的作品不會服務於憲法激勵人類創造力的目的,因為“機器不需要激勵來創作”。見《2025 年人工智慧可版權性報告》,第 35 頁。同樣,該局對人工智慧訓練的合理使用分析也考慮了此類使用是促進還是阻礙“科學和實用藝術的進步”,認識到這一憲法目的必須指導法規條文的解釋。
這些憲法原則建立了一個既能促進又能約束人工智慧發展的框架。雖然憲法對進步的促進支援技術創新,包括人工智慧的進步,但它是透過一個旨在激勵人類創造力的系統來實現的。法院和政策制定者必須在這種張力中導航,確保人工智慧的發展不會破壞那個成功促進美國兩個多世紀創意和科學領導地位的憲法交易。
理解技術
人工智慧訓練如何運作
版權局 2025 年 5 月的報告提供了關於生成式人工智慧系統如何開發的權威技術背景。機器學習是人工智慧的一個領域,專注於設計能夠基於資料或經驗自動學習和改進的計算機系統,而不依賴於明確程式設計的規則。其基本技術包括使用訓練樣本建立一個統計模型,並配有一個衡量模型效能的指標。見《2025 年人工智慧訓練報告》,第 4-5 頁。
生成式人工智慧系統透過分析訓練資料中的模式來學習。為了構建一個語言模型,開發者向系統輸入數十億個文字示例。系統學習預測哪些詞通常會跟在其他詞後面。經過足夠多的示例訓練後,它就能夠生成遵循類似模式的新文字。這個過程需要三個主要步驟。在資料收集中,開發者從各種來源收集訓練材料——抓取的網站、下載的資料庫、從出版商處獲得許可的內容,或盜版集合。一個模型可能在數百萬本書、數十億網頁和無數圖片上進行訓練。在處理和訓練期間,開發者清理和組織這些資料,然後用它來訓練神經網路。訓練過程包括向模型展示數千次示例,同時調整其引數以改進預測。這建立了一個由數十億個數值權重編碼的統計模型。在部署階段,公司將訓練好的模型部署到服務於各種目的的產品中。ChatGPT 回答問題和撰寫文字。Midjourney 根據文字描述建立影像。一些系統在執行時會檢索額外的受版權保護的內容以增強其響應。
生成式人工智慧特別依賴神經網路——透過大量稱為引數的數字集合,將輸入資料對映到輸出資料的數學函式,這些引數定義了輸入到輸出的對映。擁有數十億引數(統稱為網路的“權重”),現代神經網路能夠計算高度複雜的轉換,例如將文字轉換為影片。版權局強調,雖然程式碼定義了神經網路的基本結構,但“是權重反映了從訓練資料中學到的模式,並且最有可能被開發者視為專有財產或引起版權所有者的審查”。見《2025 年人工智慧訓練報告》,第 6 頁。
提示詞和人工智慧系統的本質
版權局的 2025 年可版權性報告闡明瞭人工智慧系統如何處理提示詞。提示詞是一種輸入,通常為文字形式,用於傳達期望輸出的特徵。見《2025 年人工智慧可版權性報告》,第 5 頁。精心設計以引出期望結果的提示詞的做法有時被稱為“提示詞工程”。Id. 第 5 頁,腳註 22。
然而,正如版權局解釋的那樣,當前的人工智慧系統表現出根本的不可預測性。即使使用相同的提示詞,每次請求的輸出也可能不同。Id. 第 7 頁。許多人將人工智慧描述為“黑箱”,即便是專家研究人員也無法完全理解或預測特定的模型行為。Id. 第 6 頁。一些系統現在會自動在內部最佳化提示詞,進一步減少了使用者的控制。Id.
記憶與複製
模型是否“記憶”訓練資料的技術問題具有重大的法律影響。版權局 2025 年 5 月的報告解決了這一關於訓練期間受版權保護作品遭遇的關鍵爭議。雖然一些人工智慧公司聲稱“模型本身不存在訓練資料的副本——無論是文字、影像還是其他格式”,但其他人則指出,模型生成“逐字、幾乎相同或實質性相似的輸出”的例子不勝列舉。見《2025 年人工智慧訓練報告》,第 19 頁。
版權局引用了 A. Feder Cooper 和 James Grimmelmann 的研究,解釋說“問題在於模型學到的‘模式’可以是高度抽象的、高度具體的,或介於兩者之間的任何程度”,而當學到的模式高度具體時,“該模式就是被記憶的訓練資料”。Id. 第 20 頁。版權局指出,大量研究已經記錄了記憶的程度,影響因素包括模型引數的數量、訓練資料中是否存在重複項、某個示例是否不尋常或異常,以及對記憶的定義有多寬泛。Id. 第 21 頁。
最近的訴訟暴露了這一爭議。在 Kadrey v. Meta Platforms, Inc., No. 23-cv-03417-VC, 2023 WL 8039640, at *1 (N.D. Cal. Nov. 20, 2023) 案中,法院駁回了 Meta 的 Llama 模型本身是侵權衍生作品的指控,稱此類指控“毫無意義”。但法院的推理取決於原告未能指控模型可以生成其作品的副本。法院明確區分了模型可以“吐出其受保護作品的實際副本”的情況。Id. at *3。
這一區別在 Andersen v. Stability AI 案中被證明是決定性的,該案中法院允許某些版權索賠繼續進行,並接受了原告關於 Stable Diffusion 模型包含能夠再現訓練影像的壓縮表示的指控是可信的;但法院並未裁定模型權重本身就是侵權副本。Andersen v. Stability AI, No. 3:23-cv-00201-WHO, ECF 223 (N.D. Cal. Aug. 12, 2024)。
分發訓練好的權重是否構成“副本”的分發問題尚未解決;法院尚未對此問題做出裁決。這種風險並非理論上的。研究人員已經從 GPT-2 中提取出逐字文字,從 Stable Diffusion 中提取出幾乎相同的影像,以及從 GitHub Copilot 中提取出可識別的程式碼。正如研究論文《從擴散模型中提取訓練資料》所記錄的那樣,Stable Diffusion 生成的某些影像是訓練影像的畫素級完美副本。Nicholas Carlini et al., Extracting Training Data from Diffusion Models, ARXIV (Jan. 30, 2023), https://arxiv.org/abs/2301.13188。
MAI Systems Corp. v. Peak Computer, Inc., 991 F.2d 511, 518 (9th Cir. 1993) 案裁定,將軟體載入到 RAM 中構成了版權法意義上的副本。然而,該案處理的是軟體程式碼,而非機器學習權重,並且沒有為所有數字副本建立一個更廣泛的“超過瞬時性”的門檻。MAI 案判例對人工智慧模型權重的適用性仍然是一個法院尚未解決的開放性問題。
版權法分析
版權何時適用
版權自動保護原創的創意作品——幾乎包括網上所有的文字、影像、音樂和影片。無需註冊或版權符號。見《美國法典》第 17 編第 102(a) 條 (2018) (定義可受版權保護的主題)。
版權局 2025 年 5 月的報告確認,使用這些作品進行人工智慧訓練涉及多重複制行為。開發者在下載和儲存訓練資料、處理和重新格式化檔案、在訓練期間載入資料、儲存訓練好的模型權重以及為增強響應檢索內容時都會進行復制。除非受合理使用或許可的保護,否則每一項行為都可能侵犯版權。見《2025 年人工智慧訓練報告》,第 26-31 頁;另見《美國法典》第 17 編第 106 條 (2018) (列舉專有權)。
合理使用框架
合理使用允許在未經許可的情況下對受版權保護的作品進行某些使用。《版權法》第 107 條要求法院權衡四個因素來確定特定使用是否合格。見《美國法典》第 17 編第 107 條 (2018)。版權局 2025 年 5 月的報告對這些因素如何應用於人工智慧訓練進行了全面分析,詳細審查了每個因素,同時承認判定必須逐案進行。見《2025 年人工智慧訓練報告》,第 32-74 頁。
合理使用的判定是高度事實特定的。2025 年 3 月的法院判決表明,技術保障措施、資料來源和輸出能力起著至關重要的作用。根據阿爾薩普法官的說法,使用盜版材料可能是“本質上、不可救藥地侵權的”。
2025 年 3 月在 Bartz v. Anthropic 和 Kadrey v. Meta 案中的即決判決,為這些因素在人工智慧訓練背景下的應用提供了首次實質性的司法分析。阿爾薩普法官以合理使用為由部分批准了 Anthropic 的即決判決,但駁回了關於盜版資料索賠的動議;而查布里亞法官則批准了 Meta 關於訓練資料問題的即決判決,儘管其依據是證據不足,而非完全認可合理使用抗辯。
使用的目的和性質
最高法院在 Andy Warhol Foundation for the Visual Arts, Inc. v. Goldsmith 案中的判決從根本上重塑了這一分析。598 U.S. 508, 529 (2023)。法院駁斥了增加新表達就自動使使用具有變革性的觀點。相反,Warhol 案聚焦於特定二次使用的目的。當沃霍爾的遺產將其普林斯絲網版畫授權給雜誌出版時——這與戈德史密斯原始照片的目的一樣——儘管沃霍爾進行了藝術修改,法院仍認定該使用不具變革性。Id. at 531-32。
在 Bartz 案中的阿爾薩普法官和在 Kadrey 案中的查布里亞法官都同意,複製受版權保護的作品以訓練生成式人工智慧模型通常具有變革性目的。書籍作者寫作是為了教育或娛樂讀者,而 Anthropic 和 Meta 有著不同的目的——透過統計分析書籍內容來訓練基礎模型,將書籍內容用作訓練資料。兩位法官都認為這些訓練目的具有高度變革性,但他們也警告說,僅有變革性並不能保證合理使用。
版權局的結論是,“在一個龐大且多樣化的資料集上訓練一個生成式人工智慧基礎模型通常是具有變革性的”,因為這個過程“將大量的訓練樣本轉換為一個統計模型,該模型可以在各種新情況下生成廣泛的輸出”。見《2025 年人工智慧訓練報告》,第 45 頁。然而,該局強調,變革性是一個程度問題,不同的使用情況分佈在一個譜系上。用於研究或在封閉系統中部署以執行非替代性任務的使用代表了變革性最強的一端,而訓練以生成與資料集中受版權保護作品實質性相似的輸出則代表了變革性最弱的使用。Id. 第 46 頁。
版權局明確駁斥了人工智慧訓練因其服務於“非表達性”目的而本質上具有變革性的論點,指出“語言模型是在長達數十萬個標記的示例上訓練的,吸收的不僅是詞語的意義和詞性,還有它們在句子、段落和文件層面的選擇和編排——這是語言表達的精髓”。Id. 第 47 頁。該局還駁斥了將人工智慧與人類學習相提並論的說法,強調“人工智慧學習在對版權分析至關重要的方面與人類學習不同”,因為生成式人工智慧訓練“涉及建立完美副本,並能夠幾乎瞬時地分析作品”,並且可以“以超人的速度和規模進行創作”。Id. 第 48 頁。
關於使用盜版材料的問題,司法界出現了顯著分歧。阿爾薩普法官對 Anthropic 使用盜版書籍訓練其模型的行為持高度批評態度,他表示,“即使盜版副本被立即用於變革性使用並立即丟棄,盜竊本來可用的副本本身就是固有的、不可救藥的侵權行為。” 相比之下,查布里亞法官認為 Meta 使用盜版書籍的行為並未“改變”其合理使用主張的“天平”,他認為這個問題既不是決定性的,也不是無關緊要的。他指出,最高法院曾兩次暗示,重要的是被質疑的使用在客觀上是否公平,而不是假定的合理使用者是善意還是惡意行為者。
這一先例直接挑戰了人工智慧公司關於對受版權保護作品進行統計分析本質上具有變革性的論點。雖然 Authors Guild v. Google, Inc., 804 F.3d 202, 216-17 (2d Cir. 2015) 案認定,將書籍數字化以建立可搜尋資料庫服務於變革性目的,但該案涉及的是提供有關書籍的資訊,而非生成新的創意內容。這一區別很重要。谷歌圖書幫助使用者找到要購買的書籍;而生成式人工智慧創造的內容則與其訓練材料競爭。
作品的性質
第二巡迴上訴法院在 Authors Guild 案中對此因素給予了較少的權重,指出谷歌既複製了事實性作品也複製了創意性作品。804 F.3d at 220。然而,正如版權局指出的,人工智慧訓練提出了不同的考量。語言模型特別尋求具有創造性、文筆優美的內容——小說、詩歌和專業新聞報道——正是因為它們的表達性品質。這種對創意作品的刻意選擇,應比谷歌在全面書籍掃描專案中偶然包含創意作品的情況更不利於合理使用。見《2025 年人工智慧訓練報告》,第 54 頁。
在 2025 年 3 月的判決中,兩位法官都同意,作品性質因素不利於合理使用,因為 Anthropic 和 Meta 選擇使用原告的書籍,正是因為其表達性。這些作品的高度創造性使其更接近版權保護的“核心”。
使用的數量
第九巡迴上訴法院在 Sony Computer Entertainment, Inc. v. Connectix Corp., 203 F.3d 596, 605 (9th Cir. 2000) 案中的方法提供了最相關的框架。該法院認為,當最終產品不包含受版權保護的表達時,複製整個作品的權重“非常小”。但 Connectix 案涉及的是逆向工程以獲取不受保護的功能性元素。而人工智慧訓練旨在吸收表達性元素——正是版權所保護的風格、結構和語言模式。
在 2025 年 3 月的判決中,兩位法官都認為,鑑於其變革性目的,Anthropic 和 Meta 為訓練資料目的複製原告作品的全部內容是合理的。版權局承認,“人工智慧開發者通常會複製整個作品並將其表達性內容用於訓練”,這通常不利於合理使用。見《2025 年人工智慧訓練報告》,第 55 頁。然而,該局指出,“對於許多生成式人工智慧模型來說,使用整個作品進行某些形式的訓練似乎是實際必要的”,特別是為了實現當前一代模型效能所需的“網際網路規模的預訓練資料,包括大量的完整作品”。Id. 第 57 頁。
至關重要的是,版權局和最近的法院判決都強調了技術保障措施的重要性。查布里亞法官特別指出,Meta 實施的輸出過濾器阻止了訓練資料中大量表達的再現,這在認定沒有因銷售損失而造成的市場損害方面具有重要意義。當開發者採取“充分的保障措施來限制受版權保護材料的暴露”時,包括“阻止可能導致生成複製受版權保護內容的使用者提示的輸入過濾器”、“旨在減少侵權輸出可能性的訓練技術”,以及“阻止受版權保護內容被顯示的輸出過濾器”,第三個因素可能對合理使用的主張影響較小。Id. 第 59-60 頁。
市場影響
最高法院在 Campbell v. Acuff-Rose Music, Inc. 案中指示法院不僅要考慮“被控侵權人的特定行為造成的市場損害程度”,還要考慮“如果被告從事的這類行為不受限制且廣泛存在……是否會對原作的潛在市場造成重大不利影響”。510 U.S. 569, 590 (1994)。2025 年 6 月的 Kadrey 案判決揭示了對如何在人工智慧背景下評估市場損害的重大司法分析。
查布里亞法官指出了人工智慧訓練可能造成市場損害的三種潛在理論。首先,當模型輸出逐字或實質性相似的受保護作品副本時,會發生直接替代。其次,當開發者繞過可用的許可市場時,會導致許可費損失。第三,當人工智慧系統向市場大量投放競爭作品,即使這些作品不構成侵權,也會減少對人類創作作品的需求,從而發生市場稀釋。
在 2025 年的判決中,兩位法官都未採納許可費損失理論。兩位法官均表示,書籍的訓練資料使用代表了一個作者無權控制的市場,因為這些是變革性目的的使用,並引用先例指出,因變革性使用而導致的許可費損失在第四個因素下是不可認知的損害。見 Campbell, 510 U.S. at 591-92。查布里亞法官將 Kadrey 案中關於因促成輸出侵權而造成損害的論點描述為“明顯會輸”,並指出 Meta 已開發出有效的輸出過濾器,防止了從作為訓練資料錄入的書籍中再現大量表達片段。
然而,查布里亞法官對市場稀釋理論進行了廣泛分析,他認為該理論比其他損害理論更具說服力。他解釋說,能夠生成“無數傳記”、“雜誌文章”或型別小說的 AI 系統可能會“嚴重損害”人類創作作品的市場。法官指出,“典型的人類創作的言情小說或間諜小說的市場可能會因類似 AI 創作作品的泛濫而大幅萎縮”,這“想必會首先削弱人類創作言情小說或間諜小說的動機”。
查布里亞法官明確駁斥了市場稀釋不計入第四個因素的論點,他表示,“間接替代仍然是替代:如果有人購買了一本由大語言模型(LLM)寫的言情小說,而不是一本由人類作者寫的言情小說,那麼由 LLM 生成的小說就替代了人類寫的小說。” 他將此與由批評或評論造成的不可認知的損害區分開來,後者可以損害需求但不能作為替代品。Cf. Campbell, 510 U.S. at 591-92 (批評“扼殺對原作的需求”並不產生《版權法》下可認知的損害)。
法官強調,生成式人工智慧給版權法帶來了前所未有的挑戰,他觀察到,“沒有任何其他使用——無論是創作單一的二次作品還是創作其他數字工具——能像大語言模型訓練那樣,有潛力向市場大量投放競爭作品。” 他暗示,“在這種情況下,市場稀釋很可能會讓原告在第四個因素上——從而在整個合理使用問題上——決定性地勝訴。”
查布里亞法官的“市場稀釋”理論代表了一種新穎的方法:人工智慧系統向市場大量投放競爭作品,即使沒有直接複製,也可能“嚴重損害”人類創作者。他暗示僅此一個因素就可能常常推翻合理使用的抗辯。
儘管認為市場稀釋理論很有說服力,查布里亞法官還是批准了 Meta 的即決判決,因為原告未能提供任何支援該理論的證據。他指出,原告在其訴狀中“從未提及”市場稀釋,沒有對其書籍市場進行分析,沒有討論人工智慧生成的書籍是否在這些市場中競爭,也沒有提供關於實際或未來可能對銷售產生影響的證據。法院的結論是,“猜測不足以提出真實的爭議問題並推翻即決判決。” Kadrey v. Meta Platforms, Inc., 2025 WL 1752484, at *23-24 (N.D. Cal. June 25, 2025)。
相比之下,阿爾薩普法官在 Bartz 案的口頭辯論中將市場稀釋理論斥為“科幻小說”,將人工智慧訓練比作“訓練小學生寫好作文”,後者也可能“導致競爭作品的爆炸式增長”。Bartz v. Anthropic PBC, No. C 24-05417 WHA (N.D. Cal. Mar. 15, 2025) (口頭辯論記錄)。兩位法官之間的這種鮮明分歧凸顯了一個根本性問題,即版權在保護人類創作者免受非侵權競爭方面的作用,這個問題很可能需要上訴法院來解決。
版權局指出了多種形式的潛在市場損害。首先,當模型“輸出與訓練作品逐字或實質性相似的副本”且這些副本“終端使用者可以輕易獲取”時,可能會發生銷售損失。見《2025 年人工智慧訓練報告》,第 63 頁。其次,市場稀釋威脅著創作者,因為“人工智慧系統生成內容的速度和規模對與其訓練資料中同類作品的市場構成了嚴重的稀釋風險”,這意味著“作者作品的銷售競爭加劇,受眾更難找到它們”。Id. 第 65 頁。第三,在“某些行業已經存在自願許可”且“在其他行業似乎合理或可能發展”的情況下,許可機會的喪失代表了重大損害。Id. 第 67, 70 頁。
也許最重要的是,迅速發展的許可市場削弱了第四個因素下的合理使用主張。在 American Geophysical Union v. Texaco Inc. 案中,第二巡迴上訴法院駁回了德士古公司影印科學文章的合理使用抗辯,部分原因是存在透過版權清算中心 (Copyright Clearance Center) 的許可機制。60 F.3d 913, 929-31 (2d Cir. 1995)。法院認為,即使個別研究人員可能有變革性目的,繞過可用許可也對合理使用不利。
如今的人工智慧許可市場規模遠超 Texaco 案時期。主要出版商、圖片庫和新聞機構已經專門為人工智慧訓練設立了許可計劃。OpenAI、谷歌和其他公司已經簽署了價值數億美元的協議。見《2025 年人工智慧訓練報告》,第 103-06 頁 (記錄了人工智慧許可市場的出現)。根據 Texaco 案的邏輯,這些市場的存在為未經許可的訓練創造了不利於合理使用的推定,特別是對於有能力負擔許可的商業開發者而言。Cf. 60 F.3d at 930-31。
將合理使用應用於人工智慧訓練
版權局的結論是,“合理使用的判定需要在所有相關情況下平衡多個法定因素”,並且“預計第一個和第四個因素在分析中將佔據相當大的權重”。見《2025 年人工智慧訓練報告》,第 74 頁。該局預計,“一些用於生成式人工智慧訓練的受版權保護作品的使用將符合合理使用,而一些則不會”。Id.
2025 年 3 月的即決判決確認了這種細緻入微的方法。阿爾薩普法官在 Bartz 案中的裁決,相比查布里亞法官在 Kadrey 案中的判決,對人工智慧訓練使用作品的行為給予了更寬鬆的訊號,至少在不使用盜版書籍的情況下是如此。這些判決確立了法院需要區分人工智慧發展中對受版權保護作品的根本不同使用方式,其中技術保障措施、資料來源和輸出能力在分析中起著至關重要的作用。
研究和分析用途
最接近於 Authors Guild, Inc. v. HathiTrust (2014) 案中批准的變革性使用的訓練,涉及僅為非表達性目的部署的模型。當大學將數百萬冊書籍數字化以實現全文搜尋用於研究時,第二巡迴上訴法院認為這是“典型的變革性”使用,因為它提供了關於作品的資訊,而沒有提供市場替代品。755 F.3d 87, 97 (2d Cir. 2014)。HathiTrust 案涉及非替代性的搜尋和無障礙使用。同樣,為科學分析、無障礙工具或內容稽核訓練人工智慧模型,其目的與訓練中使用的表達性作品不同。這些用途增強了合理使用的主張。
版權局指出,“在譜系的一端,用於非商業性研究或分析,且不使其輸出中能再現作品部分內容的用途,很可能是合理的。” 見《2025 年人工智慧訓練報告》,第 74 頁。該局強調,當“目的是將其部署用於研究,或在一個封閉系統中將其限制於非替代性任務”時,訓練是“最具變革性的”。Id. 第 46 頁。
與 HathiTrust 案的關鍵區別在於輸出能力。HathiTrust 資料庫只能返回搜尋結果和頁碼——它無法生成新的小說。當人工智慧模型能夠產生創意內容時,它們就超出了 HathiTrust 案的保護範圍,進入了 Warhol 案下更危險的領域。
商業內容生成
在另一個極端,使用受版權保護的作品來訓練生成競爭內容的模型,根據現有判例面臨著嚴重的障礙。第二巡迴上訴法院在 Fox News Network, LLC v. TVEyes, Inc. 案中的判決具有指導意義。883 F.3d 169, 177-80 (2d Cir. 2018)。儘管 TVEyes 透過幫助使用者監控電視報道服務於變革性的研究目的,但法院駁回了合理使用,因為該服務以一種可能替代福克斯新聞自己產品的方式提供了其內容。
版權局的結論是,“在譜系的另一端,為了生成在市場上競爭的無限制內容而從盜版來源複製表達性作品,當許可合理可得時,不太可能符合合理使用。” 見《2025 年人工智慧訓練報告》,第 74 頁。阿爾薩普法官在 Bartz 案中對使用盜版材料的強烈譴責強化了這一立場,他認為 Anthropic 本應購買原告書籍的印刷本來建立其資料庫,並就下載和儲存盜版副本的所有四個合理使用因素做出了不利於 Anthropic 的裁決。
查布里亞法官的市場稀釋理論如果被上訴法院採納,可能會顯著擴大市場損害分析的範圍。他暗示,生成式人工智慧行業會找到一種方式向版權所有者支付訓練費用,他表示,“如果大語言模型開發者的唯一選擇是獲得許可或放棄使用受版權保護的書籍作為訓練資料,那麼這些許可市場似乎尤其可能出現”,這預示著司法界可能更傾向於金錢賠償而非禁令救濟。Kadrey v. Meta Platforms, Inc., 2025 WL 1752484, at *38 (N.D. Cal. June 25, 2025)。
許可市場的現實
快速發展的許可市場削弱了第四項因素下的合理使用主張。版權局的檔案指出,“自願許可在某些領域已經發生,並且在其他領域——至少對於某些型別的作品、訓練和模型——似乎是合理或可能發展的。”《2025年人工智慧訓練報告》(下稱“2025 AI TRAINING REPORT”),第73頁。然而,在2025年3月的判決中,兩名法官都駁回了“部分許可協議的存在即產生了為所有訓練資料獲得許可的義務”這一論點,並指出鑑於複雜模型所需資料的規模,數百萬筆個人許可交易是不切實際的。
《數字千年版權法案》(DMCA)與合理使用的交集
2025年6月在Kadrey v. Meta Platforms, Inc.案(No. 23-cv-03417-VC, 2025 WL 1786418 (N.D. Cal. June 27, 2025))中的DMCA裁決,對合理使用與版權管理資訊(CMI)移除之間的關係提供了關鍵澄清。法院批准了Meta就原告根據《美國法典》第17篇第1202(b)(1)條提出的DMCA索賠的區域性簡易判決動議,認為由於Meta的複製行為在法律上構成合理使用,其移除CMI的行為不可能違反DMCA。
法院的推理基於基本的法規解釋。第1202(b)(1)條禁止任何人在知曉或有理由知曉移除行為將“引誘、促成、便利或掩蓋侵權”的情況下,故意移除CMI。由於《版權法》第107條規定合理使用“不構成版權侵權”,且Meta的複製行為被認定為合理使用,因此CMI的移除行為不存在可助長的潛在侵權。同上。
Chhabria法官強調了支援這一解釋的兩個額外政策原因。首先,如果國會豁免了合理使用的二次使用者的侵權責任,卻又讓他們因在此過程中移除樣板文字而承擔DMCA責任,這將是自相矛盾的。其次,根據第1204(a)條,如果CMI移除是故意的且出於商業目的,第1202條可導致刑事責任。法院認為,“刑事責任適用於為促進非侵權的合理使用而採取的行為,這是不可想象的。”同上,第2頁。
法院駁回了Murphy v. Millennium Radio Group案(2015 WL 419884 (D.N.J. Jan. 30, 2015))的推理,該案曾裁定即使基礎使用是合理的,DMCA索賠仍可繼續進行。Chhabria法官認為Murphy的三個理由不具說服力,並特別指出,在第九巡迴法院,如果一個人意圖協助他們認為是合理使用且實際上也是合理使用的行為,那麼他們就不能被視為意圖協助侵權,並引用了Evergreen Safety Council v. RSA Network Inc.案(697 F.3d 1221, 1228 (9th Cir. 2012))。
這一裁決對人工智慧開發者具有重大的實際意義。它表明,確立合理使用不僅可以防範直接侵權索賠,還可以防範與在訓練過程中移除版權宣告、水印和其他元資料相關的DMCA索賠。然而,開發者應注意,這種保護僅限於符合合理使用資格的用途——不符合合理使用標準的未經授權使用仍可能面臨侵權和DMCA雙重責任。
人工智慧生成內容的版權保護
人類作者身份要求
版權局已明確規定,版權保護僅適用於由人類作者創作的作品。這一植根於憲法和法規解釋的基本原則,深刻影響了人工智慧生成內容的商業價值和法律地位。
最高法院在Burrow-Giles Lithographic Co. v. Sarony案中確立了這一原則,將“作者”定義為“任何事物的起源者;原創者;創作者;完成科學或文學作品的人”。法院反覆將作者描述為人類,稱版權為“一個人對其自身天才或智慧產物的專有權”。111 U.S. 53, 57-58 (1884)。
聯邦上訴法院強化了這一解釋。第九巡迴法院在Naruto v. Slater案中裁定,猴子不能為其拍攝的照片註冊版權,因為《版權法》中提及作者的“子女”、“遺孀”和“鰥夫”必然意味著人類作者身份。888 F.3d 418, 426 (9th Cir. 2018)。同樣,在Urantia Foundation v. Kristen Maaherra案中,法院裁定,由“非人類精神存在”創作的文字,只有在存在“人類對啟示內容的選擇和編排”時,才有資格獲得版權。114 F.3d 955, 957-59 (9th Cir. 1997)。第七巡迴法院則明確裁定,“受版權保護作品的作者必須是人類”。Kelley v. Chicago Park Dist., 635 F.3d 290, 304 (7th Cir. 2011)。
2023年,哥倫比亞特區地方法院成為首個專門處理人工智慧生成輸出的法院。在Thaler v. Perlmutter案中,法院認定“人類作者身份是版權的基石”,並且版權從未保護過“在沒有任何人類指導之手的情況下,由新型技術生成的作品”。687 F. Supp. 3d 140, 146 (D.D.C. 2023)。哥倫比亞特區巡迴法院於2025年3月18日確認了這一判決,重申了人類作者身份的要求。Thaler v. Perlmutter, 130 F.4th 1039, 1044-45 (D.C. Cir. 2025)(裁定“《版權法》要求所有作品最初必須由人類創作”)。
版權局2025年關於提示詞的指南
2025年1月,版權局釋出了全面的指南,明確規定僅憑提示詞不能賦予人工智慧生成輸出的作者身份。《2025年人工智慧版權性報告》(下稱“2025 AI COPYRIGHTABILITY REPORT”),第18-22頁。該局得出結論:“鑑於當前普遍可用的技術,僅憑提示詞無法提供足夠的人類控制,從而使人工智慧系統的使用者成為輸出內容的作者。”同上,第18頁。
版權局解釋說,提示詞“本質上是傳達不受保護思想的指令”,儘管“高度詳細的提示詞可能包含使用者期望的表達元素,但目前它們無法控制人工智慧系統在生成輸出時如何處理這些元素。”同上,第18-19頁。提示詞與輸出之間的差距表明,“使用者對其思想轉化為固定表達形式的過程缺乏控制,而系統在很大程度上負責決定輸出中的表達元素。”同上,第19頁。
版權局明確駁斥了“收養作者身份”理論,認為在不受控制的選項中選擇一個人工智慧生成的輸出,“更類似於管理一個‘活生生的花園’,而不是應用潑灑的顏料。”同上,第21頁(引用Kelley v. Chicago Park Dist., 635 F.3d 290, 304 (7th Cir. 2011))。反覆修改提示詞並不能改變這一分析,因為這相當於“‘重擲骰子’,讓系統生成更多輸出供選擇,但並未改變對過程的控制程度。”同上,第20頁。
版權局承認,技術進步某一天可能會透過提示詞為使用者提供對錶達元素的足夠控制,但結論是當前技術尚未達到這一門檻。同上,第21-22頁。
版權局明確指出,僅憑提示詞不能賦予人工智慧生成輸出的作者身份,無論其複雜性或迭代次數如何。當前技術無法透過提示詞提供足夠的人類對錶達元素的控制。
對人類貢獻的有限保護
2025年指南確定了三種人類對人工智慧生成輸出的貢獻可能獲得版權保護的情形。首先,當人類作者輸入自己受版權保護的作品,並且這些作品在輸出中仍然可感知時,他們保留對這些部分的作者身份。其次,對人工智慧生成的材料進行足夠大的修改,以至於修改本身達到了版權的原創性標準的人,可以對這些修改主張作者身份。第三,人類可以對人工智慧生成材料的創造性選擇、協調和編排主張版權,但保護僅限於彙編本身,而不及於底層的人工智慧生成元素。2025 AI COPYRIGHTABILITY REPORT, supra, 第22-25頁。
人工智慧系統的輔助性使用
版權局在使用人工智慧作為輔助創作的工具和使用人工智慧替代人類創造力之間劃出了一條關鍵界線。同上,第11-12頁。當人工智慧透過輔助性使用增強人類表達時,版權保護仍然適用。同上。這包括使演員變老或變年輕、識別和絃進行、檢測軟體錯誤以及從場景中移除不需要的物體等用途。同上,第11頁,注63。
版權局特別提到了殘疾創作者,強呼叫作“重塑、轉換或改編作者表達”的工具的人工智慧功能,支援對最終作品的版權保護。同上,第38頁。版權局引用了鄉村音樂藝術家蘭迪·特拉維斯(Randy Travis)的例子,他在中風導致語言功能受限後,使用人工智慧重現了他的聲音。由於人工智慧是作為工具而非生成表達,版權局註冊了該作品。同上。
商業影響
人工智慧生成內容缺乏版權保護,造成了重大的商業不確定性。公司無法對純由人工智慧系統生成的內容主張專有權。除非有足夠的人類創造性控制來確立有限的保護,否則競爭對手可以自由複製和使用人工智慧生成的材料。這從根本上影響了建立在人工智慧內容生成基礎上的商業模式,可能降低人工智慧生成資產的價值,並使內容許可安排複雜化。
版權局2025年的報告探討了為人工智慧生成內容提供保護的政策論點,並得出結論:“目前尚未有充分理由為人工智慧生成的材料提供超出既有法律範圍的額外保護。”同上,第36頁。版權局特別擔心,“如果大量輕易、快速生成的人工智慧內容淹沒了市場上的'人類創作作品',額外的法律保護將破壞而非促進版權制度的目標。”同上,第36-37頁。
針對未經授權的數字複製品的保護
數字複製品問題的出現
版權局2024年7月的報告指出了針對未經授權的數字複製品提供保護的迫切需求。從人工智慧生成的音樂表演到冒充政治候選人的自動語音電話,再到色情影片中的影像,一個複雜的數字複製品時代已經到來。儘管製作虛假影像或錄音的技術早已存在,但生成式人工智慧能夠輕鬆、快速且逼真地做到這一點,已經引起了創作者、立法者和公眾的關注與擔憂。《2024年數字複製品報告》(下稱“2024 DIGITAL REPLICAS REPORT”),第1-2頁。
版權局使用“數字複製品”一詞來指代經過數字建立或處理,以逼真但虛假地描繪某個人的影片、影像或音訊錄音。“數字複製品”可以是授權的,也可以是未經授權的,並且可以透過任何型別的數字技術製作,而不僅僅是人工智慧。“數字複製品”和“深度偽造”(deepfakes)這兩個術語可以互換使用。同上,第2頁。
未經授權的數字複製品造成的當前危害
數字複製品既有有益的用途,也有有害的用途。從積極方面看,它們可以作為殘疾人士的無障礙工具,讓已故或不巡演的藝術家進行“表演”,支援創意工作,或允許個人許可其聲音、影像和肖像並獲得報酬。在一個著名的例子中,音樂家蘭迪·特拉維斯(Randy Travis)在中風後語言功能受限,但他能夠使用生成式人工智慧釋出了十多年來的第一首歌曲。同上,第3頁。
與此同時,未經授權的數字複製品也帶來了一系列實際或潛在的危害。在整個創意領域,語音克隆和影像生成器的激增引發了人們的擔憂,即表演者和其他藝術家將失去工作或收入。已經有電影專案使用數字複製品群眾演員代替背景演員,以及配音演員被人工智慧複製品取代的情況。在音樂行業,有人擔心在錄音中使用人工智慧可能導致“真實性和創造力的喪失”以及人類勞動力的替代。同上,第3-4頁。
雖然描繪知名人士的數字複製品常常最引人注目,但任何人都有可能受到傷害。在創意領域之外,未經授權的數字複製品造成的危害主要分為三類。首先,有許多報道稱生成式人工智慧系統被用於製作色情深度偽造影像。2023年,研究人員得出結論,色情影像佔所有線上深度偽造影片的98%,其中99%的被描繪者是女性。學生製作併發布同學的深度偽造色情影像的事件似乎正在增加。同上,第4頁。
其次,建立深度偽造品的能力提供了一種“以驚人的便捷和複雜程度實施欺詐活動的有力手段”。媒體報道了多起詐騙案,其中詐騙者複製了一家跨國金融公司執行長及其員工的影像和聲音,竊取了2560萬美元;複製了親人的聲音,要求贖金;並複製了一位律師兒子的聲音,要求他匯款9000美元以支付保釋金。名人的數字複製品被用來虛假地描繪他們為產品代言。同上,第5頁。
最後,存在一個危險,即數字複製品將透過使虛假資訊無法辨別而破壞我們的政治制度和新聞報道。最近涉及政治家的例子包括:一個芝加哥市長候選人的聲音複製品似乎在縱容警察暴力;一個帶有拜登總統聲音複製品的自動語音電話,勸阻選民參加初選;以及一個競選廣告,使用人工智慧生成的影像,描繪前總統特朗普與美國國家過敏和傳染病研究所前所長安東尼·福奇(Anthony Fauci)一同出現。深度偽造影片甚至被用來影響一次重要的工會投票,虛假地顯示一位工會領導人敦促成員反對他“談判達成並……強烈支援”的合同。同上,第5-6頁。
一位數字取證學者在總結資訊生態系統面臨的挑戰時警告說:“如果我們進入一個任何故事、任何錄音、任何影像、任何影片都可能是假的世界……那麼就沒有什麼是必須真實的了。”隨著人工智慧技術的不斷進步,研究人員預測,區分數字複製品和真實內容將變得越來越困難。同上,第6頁。
現有法律框架及其侷限性
版權局2024年7月的報告概述了主要的現有法律框架:州級的隱私權和形象權,包括最近專門針對數字複製品的立法;以及聯邦層面的《版權法》、《聯邦貿易委員會法》、《通訊法》和《蘭哈姆法》。同上,第8-22頁。
州法律在各個方面既不一致也不充分。一些州目前不提供形象權和隱私權,而其他州只保護特定類別的個人。多個州要求證明個人身份具有商業價值。並非所有州的法律都保護個人的聲音;那些保護聲音的法律可能將保護限制在獨特且知名的聲音、具有商業價值的聲音,或未經同意使用真實聲音(而非數字複製品)的情況。同上,第23頁。
州形象權法律通常僅適用於侵權行為發生在廣告、商品上或用於其他商業目的的情況。它們不解決非商業用途可能造成的傷害,包括在網際網路環境中尤為普遍的深度偽造色情內容。不同的司法管轄區要求造成了誰可以尋求救濟的差異。最後,其中一些法律包含了可能超出第一修正案要求的廣泛例外,將許多未經授權的使用置於其範圍之外。正如許多評論者指出的,結果是保護措施零散不一,是否能獲得補救取決於受影響個人居住地或未經授權使用發生地。同上,第23-24頁。
現有的聯邦法律範圍過於狹窄,無法完全解決當今複雜的數字複製品造成的危害。《版權法》保護原創的作者作品,但並不阻止未經授權複製個人的影像或聲音,並且被針對的個人可能不是整個作品的版權所有者。《聯邦貿易委員會法》禁止在商業活動中或影響商業活動的不公平或欺騙性行為。雖然它可以適用於數字複製品被用於商業誤導方式的案件,但在其他情況下它不提供全面保護。同樣,根據《蘭哈姆法》,涉及數字複製品的索賠,如虛假代言,僅限於未經授權的商業用途,而且大多數聯邦法院還要求證明消費者對被描繪的個人有認知,以建立混淆的可能性,這將《蘭哈姆法》的保護範圍限制在知名人物和商業環境中。對於許多個人,包括不太知名的藝術家和表演者,可能難以證明被質疑的行為可能會使消費者對原告與被告商業活動的關聯或認可產生混淆。而像人工智慧生成的“報復性色情”等問題,很可能超出其管轄範圍。同上,第24頁。
版權局對聯邦立法的建議
在得出需要一部新法律的結論後,版權局就其輪廓提出了以下建議:
標的物。法規應針對那些無論是透過人工智慧還是其他方式生成,且逼真到難以與真實描繪區分的數字複製品。保護範圍應比許多州提供的更廣泛的“姓名、形象和肖像”保護更窄且有所區別。同上,第iv, 29頁。
受保護的人員。法規應涵蓋所有個人,而不僅僅是名人、公眾人物或身份具有商業價值的人。每個人都可能受到未經授權的數字複製品造成的傷害,無論其名氣大小或之前的商業曝光程度如何。同上,第iv, 29-30頁。
保護期限。保護期應至少持續到個人去世。任何死後保護的期限應有限制,並可能提供延長選項,如果該個人的形象繼續被利用。同上,第iv, 30-33頁。
侵權行為。責任應源於分發或提供未經授權的數字複製品,而不僅僅是創作行為本身。責任不應限於商業用途,因為造成的傷害通常是個人性質的。應要求實際知曉該表述是特定個人的數字複製品,並且未經授權。同上,第iv, 33-36頁。
間接責任。傳統的侵權法間接責任原則應適用。法規應包括一個安全港機制,激勵線上服務提供商在收到有效通知或以其他方式知曉其未經授權後,移除未經授權的數字複製品。同上,第iv, 36-39頁。
許可與轉讓。個人應能夠許可並將其數字複製品權利貨幣化,但需有保障措施,且不能完全轉讓。未成年人權利的許可應要求額外的保障措施。同上,第iv, 39-42頁。
第一修正案問題。法規中應明確處理言論自由問題。使用平衡框架而非分類豁免,可以避免範圍過寬並提供更大的靈活性。同上,第iv, 43-47頁。
補救措施。應提供有效的補救措施,包括禁令救濟和金錢賠償。納入法定賠償和/或勝訴方律師費條款,將確保無論個人財務狀況如何,都能獲得保護。在某些情況下,刑事責任將是適當的。同上,第iv, 47-48頁。
與州法律的關係。鑑於州級形象權和隱私權已得到廣泛確立,版權局不建議完全的聯邦優先適用。聯邦法律應為全國範圍提供一個一致的保護底線,各州應繼續能夠提供額外的保護。應明確《版權法》第114(b)條不優先適用或與限制未經授權的語音數字複製品的法律相沖突。同上,第iv-v, 48-52頁。
藝術風格的保護
版權局收到了許多尋求保護,以防止人工智慧“模仿人類創作者藝術風格的輸出”的意見。評論者對人工智慧系統能夠響應“以藝術家X的風格”的文字提示,快速生成幾乎無限量的模仿特定作者、視覺藝術家或音樂家作品的材料表示擔憂。他們聲稱,這些輸出可以損害,並且在某些情況下已經損害了該創作者作品的市場。同上,第53頁。
版權局承認這些擔憂的嚴重性,並認為應為這類損害提供適當的補救措施。版權法在這一領域的適用是有限的,因為它不保護藝術風格作為作品的一個獨立元素。正如幾位評論者指出的,對風格的版權保護與第102(b)條的思想/表達二分法不一致。此外,在大多數情況下,藝術家的風格元素很難與特定的底層作品分開劃定和定義。同上,第53-55頁。
然而,當“以……風格”請求的輸出最終不僅複製了藝術家的風格,還複製了特定作品的可保護元素時,《版權法》可能會提供補救措施。此外,正如本報告的後續部分將要討論的,在某些情況下,使用藝術家自己的作品來訓練人工智慧系統以產生模仿其風格的材料,可能會支援侵權索賠。同上,第55頁。
許多評論者指出,在其他法律框架中,包括《蘭哈姆法》關於假冒和不正當競爭的禁令,可以找到對風格模仿的有意義的保護。考慮到這些資源,以及不將類似財產權的權利擴充套件到風格本身的政策原因,版權局目前不建議將風格作為聯邦數字複製品法下的受保護標的物。如果現有保護措施被證明不足,這一結論可能會被重新審視。同上,第55-56頁。
國際方法與條約義務
國際格局揭示了在人工智慧訓練和版權性方面截然不同的方法,這為全球公司帶來了合規挑戰,也為美國帶來了潛在的條約衝突。版權局2025年5月的報告對這些分歧的策略進行了全面分析。2025 AI TRAINING REPORT, supra, 第76-84頁。
關於人類作者身份的全球共識
版權局2025年的報告記錄了關於版權需要人類作者身份的新興國際共識。2025 AI COPYRIGHTABILITY REPORT, supra, 第28-31頁。韓國版權委員會表示,“只有自然人才能成為作者”,並且“如果人類沒有對錶達形式做出創造性貢獻,人工智慧輸出的版權註冊是不可能的。”同上,第28頁。日本的版權分委會指南解釋說,版權性取決於指令的數量和內容、生成嘗試的次數、從輸出中進行選擇以及後續的人類增補等因素。同上。
2023年11月,北京網際網路法院在一起案件中承認了一張使用穩定擴散(Stable Diffusion)模型生成的影像的版權,該影像基於大量提示詞和引數調整,體現了人類的智力投入。同上,第28-29頁。歐盟成員國於2024年同意,人工智慧生成的內容只有在“創作過程中的人類投入是顯著的”情況下,才有資格獲得版權。同上,第29頁。
歐洲關於訓練的框架
歐洲議會和理事會於2019年4月17日釋出的關於數字單一市場中版權及相關權利的指令(Directive 2019/790)為與人工智慧訓練相關的文字和資料探勘(TDM)確立了框架。第3條允許研究組織和文化遺產機構進行文字和資料探勘,而第4條允許商業性文字和資料探勘,但權利人可以行使選擇退出權。2019 O.J. (L 130) 92, arts. 3-4。第4條允許商業實體使用受版權保護的作品,但須遵守版權所有者的選擇退出權。這顛覆了傳統的版權框架——它不再要求在使用前獲得許可,而是在有人提出反對之前允許使用。
漢堡地方法院在Kneschke v. LAION案(LG Hamburg, 310 O 227/23 (Sept. 27, 2024) (Ger.))中,將研究性TDM例外應用於LAION資料集中用於非商業研究的部分。該判決正在分析中,並可能被上訴和澄清,各方評論對其適用範圍的看法不一。
這種“選擇退出”的方法可能違反了《伯爾尼保護文學和藝術作品公約》第9(2)條中的三步測試法(1886年9月9日,1971年7月24日修訂,25 U.S.T. 1341),美國作為條約締約方必須遵守該公約。該公約僅允許在“某些特殊情況”下設定例外,且這些例外不得與正常利用相沖突,也不得“不合理地損害作者的合法利益”。對所有可用作品進行大規模商業訓練,除非所有者反對,這幾乎不能構成“特殊情況”。它透過繞過許可市場直接與正常利用相沖突,並損害了那些無法有效監控和反對每家人工智慧公司使用其作品的作者的利益。
歐盟對商業人工智慧訓練採用的“選擇退出”方法可能違反《伯爾尼公約》的三步測試法,而美國作為條約締約方必須遵守該法。這為全球人工智慧公司帶來了潛在的合規衝突。
《人工智慧法案》於2024年8月1日生效,其中第53條規定的通用人工智慧(GPAI)義務自2025年8月2日起適用。這些義務包括要求制定遵守DSM指令第4(3)條選擇退出權的版權合規政策,併發布一份足夠詳細的訓練內容摘要。Regulation (EU) 2024/1689, art. 53, 2024 O.J. (L 1689) 1。最近釋出的自願性《行為準則》為透明度、版權合規和安全措施提供了操作指南。
日本的“非欣賞”例外
日本的《著作權法》第30-4條允許資料分析,但排除了旨在欣賞表達本身的使用。日本《著作權法》,1970年第48號法律,第30-4條(日本)。文化廳2024年5月釋出的《關於日本人工智慧與著作權的普遍理解》闡明,用於分析目的的訓練通常是允許的,而旨在欣賞表達的使用——包括旨在輸出作品的微調和某些檢索增強生成(RAG)配置——則不在此範圍內。文化廳,《關於日本人工智慧與著作權的普遍理解》,第12-15頁(2024年5月)。版權局指出,日本的例外“允許將受版權保護的作品用於人工智慧開發或其他形式的資料分析,只要其目的不是‘個人欣賞……該作品中表達的思想或情感’”。2025 AI TRAINING REPORT, supra, 第78頁。這種分析性使用和生成性使用之間的區別,與美國正在形成的區分研究性使用和競爭性使用的框架相符。然而,日本的方法比多因素的合理使用分析提供了更清晰的事前指導。
人工智慧領導地位的競爭
中國的做法仍然刻意模糊。北京網際網路法院的判決對促成侵權輸出生成的平臺施加了責任,但並未直接處理基礎模型的訓練問題。與此同時,中國的行政措施要求人工智慧服務尊重智慧財產權,但未具體說明這如何適用於訓練資料。版權局觀察到,這種模糊性可能是戰略性的,允許中國“觀察哪種方法更能促進人工智慧發展,而不必承諾於任一框架”,從而“在美國或歐洲的要求被證明過於嚴格或過於寬鬆時,獲得競爭優勢”。2025 AI TRAINING REPORT, supra, 第81頁。
英國的發展
截至2025年8月,英國已就一項類似歐盟的、帶有選擇退出權的TDM例外進行了諮詢,但尚未立法。《2025年資料(使用與訪問)法案》涉及資料訪問和處理,而非針對人工智慧訓練的版權例外。來自創作者的強烈反對已使立法行動停滯,政府表示在存在可行的保留機制之前不會立法。此次諮詢反映了在促進人工智慧創新與保護創作權利之間的持續緊張關係。版權局指出,英國提議的方法“已證明頗具爭議,評論者警告稱,這將給版權所有者和人工智慧開發者帶來繁重的交易成本。”2025 AI TRAINING REPORT, supra, 第79頁。
版權法中創造力的本質
定義人類創造力
版權法長期以來一直在努力定義創造力,並確立了區分可保護的表達與不可保護的思想、事實和機械輸出的門檻。最高法院在Feist Publications, Inc. v. Rural Telephone Service Co.案(499 U.S. 340, 345 (1991))中確立,版權要求“最低限度的創造力”,並駁斥了僅基於努力或勞動就保護作品的“汗水主義”原則。
這個創造力標準雖然很低,但要求人類的判斷和選擇。正如奧康納法官在Feist案中所寫,即使是事實的彙編,透過創造性的選擇或編排也可以達到這個門檻,但創造力必須源於人類的決策。同上,第348頁。法院強調,原創性意味著作品是由作者獨立創作的,並至少具備最低程度的創造力。同上,第345頁。
版權局在審查人工智慧生成作品時嚴格應用了這一創造力框架。在評估包含人工智慧生成材料的作品時,版權局會詢問作者身份的傳統元素是由人類還是機器“構思和執行”的。美國版權局,《美國版權局實踐彙編》§ 313.2 (第三版, 2021)。這一探究觸及了版權法下創造力的核心——只有人類才能做出的有意識的選擇、美學判斷和表達性決定。
創作過程與創作成果
創作過程和創作成果之間存在著一個關鍵區別。雖然人工智慧系統可以產生看似有創意的成果,但它們缺乏版權法所要求的有意識的意圖。版權局承認,在創作過程中使用技術工具並不否定人類的作者身份——藝術家們一直都在使用工具,從畫筆到Photoshop。88 Fed. Reg. 16190, 16193 (Mar. 16, 2023)。決定性問題在於,人類是否對錶達元素行使了創造性控制。
考慮一下攝影師使用相機和一個人向人工智慧影像生成器提供提示詞之間的區別。攝影師就構圖、光線、角度和時機做出創造性選擇——這正是最高法院在Burrow-Giles案中所稱的“原創性精神構思”被賦予了“可見形式”。111 U.S. at 60。相比之下,當某人向人工智慧系統提供文字提示時,是機器決定了實際的表達——具體的視覺元素、它們的排列方式以及它們的執行。提示者可能有一個創造性的想法,但版權保護的是表達,而不是思想。參見 17 U.S.C. § 102(b) (2018)(將思想排除在版權保護之外)。
這種區別在迭代式人工智慧工作流程中變得尤為重要。即使當用戶透過多個提示詞提供反饋以改進人工智慧的輸出時,版權局仍然認為,是人工智慧系統而不是人類決定了如何執行這些指令。88 Fed. Reg. at 16193 n.30。人類可能會影響方向,但機器執行了構成受版權保護表達的創造性選擇。
人工智慧輔助作品中的充分人類創造力
在涉及人工智慧的作品中,認定是否存在充分人類創造力的門檻取決於人類貢獻的性質和程度。版權局確定了幾種人類創造力可以支援包含人工智慧生成材料的作品的版權主張的情形。
選擇和編排是獲得保護最直接的途徑。當人類選擇人工智慧生成的元素並以足夠的創造力進行編排時,由此產生的彙編作品可能獲得版權資格。參見 17 U.S.C. § 101 (2018)(定義“彙編”)。然而,這種保護僅限於選擇和編排,而不及於底層的人工智慧生成元素。彙編作品版權的創造性門檻仍然很低但真實存在——最高法院在Feist案中駁回了按字母順序排列的電話簿的版權,因為這種編排缺乏最低限度的創造力。499 U.S. at 362-63。
修改和轉換提供了另一條保護途徑。當人類對人工智慧生成的材料進行足夠大的修改,以至於修改本身達到了版權的原創性標準時,這些人類貢獻將獲得保護。參見 17 U.S.C. § 101 (2018)(定義“衍生作品”)。這與傳統的衍生作品理論相平行,即衍生作品的版權僅限於衍生作者貢獻的材料,而不及於已有的材料。17 U.S.C. § 103(b) (2018)。
對人工智慧工具的創造性控制帶來了不斷演變的挑戰。版權局建議,未來允許人類對錶達元素進行更大控制的人工智慧系統,可能會支援更強的版權主張。88 Fed. Reg. at 16193。然而,當前的生成式人工智慧系統,它們根據統計模式決定自己的表達性輸出,對作者身份的傳統元素提供的控制力不足。
對創意產業的影響
傳統的創意專業人士——作家、藝術家、音樂家——對其由人類創作的作品擁有明確的版權。他們的創造性選擇,從選詞到筆觸再到音樂編排,都體現了版權法所保護的人類判斷。
人工智慧輔助創作處於一個需要謹慎把握的中間地帶。將人工智慧作為工具,同時保持對錶達的創造性控制的創作者,可以為其人類貢獻獲得版權保護。然而,那些主要依賴人工智慧生成表達的人,可能會發現他們的輸出不受保護,無論這些輸出的美學或商業價值如何。
這個框架激勵在創作過程中保持人類的參與。企業不能完全自動化內容創作,必須確保足夠的人類創造性控制,以便為具有商業價值的作品獲得版權保護。這可能涉及人類做出具體的表達選擇,創作原創元素與人工智慧輸出相結合,或透過創造性修改來轉換人工智慧生成的材料。
創造力要求也影響了人工智慧的訓練實踐。當人工智慧系統在人類創作的作品上進行訓練時,它們吸收了人類創造力的模式——風格選擇、敘事結構、視覺構圖——這些代表了數個世紀的人類文化發展。使用這些人類創造力的體現來訓練機器是否構成合理使用,這個問題又將我們帶回到了技術創新與保護人類創造性勞動之間的根本性緊張關係。
許可格局
當前市場活動
自願許可正在迅速擴大。版權局2025年5月的報告記錄了顯著增長,指出“用於人工智慧訓練的受版權保護作品的自願許可日益增多”。2025 AI TRAINING REPORT, supra, 第85頁。最近的交易包括出版商向人工智慧公司許可其檔案,價值數百萬美元;相簿公司建立針對人工智慧的特定許可;音樂組織制定集體許可框架;以及新聞機構協商內容訪問協議。
已記錄的交易展示了這個新興市場的規模。新聞集團(News Corp)與OpenAI的交易價值約2.5億美元,為期五年;Shutterstock在2023年報告了1.04億美元的人工智慧許可收入;Taylor & Francis與微軟的交易涉及1000萬美元的預付款加上經常性費用;Wiley在其2024年3月7日的公告中披露了2300萬美元的人工智慧許可收入。這些協議表明,對於某些型別的內容,特別是來自所有權清晰的組織化行業的內容,許可是可行的。像Wiley和Taylor & Francis這樣的大型出版商已經簽訂了價值數千萬美元的人工智慧許可協議。Shutterstock在2023年報告了超過1億美元的人工智慧許可收入。OpenAI已與包括美聯社、金融時報等主要新聞機構簽訂了協議。
挑戰與侷限
幾個因素使全面許可變得複雜。模型可能需要數十億部作品,使得個別談判不切實際。許多線上作品缺乏明確的所有權資訊。對於某些內容,許可成本可能超過其對人工智慧開發者的價值。並非所有行業都已發展出許可基礎設施。
版權局承認這些挑戰,並指出“對於所有型別的作品,在滿足所有型別模型所需的規模上,市場是否正在出現或將會出現也尚不明確。”同上,第70頁。當作品是在專業創意產業之外創作的,或者不打算貨幣化,或者所有權分散時,交易成本尤其構成挑戰。例如,“日常作品”——即公眾在網上建立和釋出且不期望貨幣化的內容——可能特別難以獲得許可。這些可能包括社交媒體帖子、個人部落格、使用者評論或個人照片或影片。
版權局得出結論:“在有許可市場可以滿足人工智慧訓練需求的情況下,未經許可的使用將在第四項因素下處於不利地位。但如果許可壁壘對某些型別作品的使用方來說難以逾越,那麼就不會有功能正常的市場受到損害,第四項因素可能會支援合理使用。”同上,第71頁。
集體許可的益處
集體管理組織可以透過彙總多個權利人的權利來降低交易成本。這種方法在音樂領域效果顯著,美國作曲家、作家和發行商協會 (ASCAP) 以及廣播音樂公司 (BMI) 已經為數百萬部作品提供了許可。參見 Broadcast Music, Inc. v. Columbia Broadcasting System, Inc., 441 U.S. 1, 20-24 (1979)。針對文字、影像和其他內容型別的類似組織也正在興起。
版權局指出,“代表版權所有人和創作者的各方對在人工智慧領域發展自願性集體許可表現出強烈興趣”,並認為集體許可“可以在促進人工智慧訓練方面發揮重要作用,將原本可能需要成千上萬甚至數百萬次的交易減少到可管理的數量。”《2025 年人工智慧訓練報告》(2025 AI TRAINING REPORT),同上,第 104 頁。版權局強調,“權利的彙集可能對雙方都有利,例如在交易成本可能超過使用作品價值的情況下,或者在版權所有人難以找到的情況下。”同上。
如果直接許可仍然作為一種替代方案存在,那麼對集體許可的反壟斷擔憂似乎是可控的。版權局鼓勵司法部提供指導,包括關於在此背景下反壟斷豁免的潛在好處。《2025 年人工智慧訓練報告》,同上,第 104 頁。
近期訴訟進展
即決判決塑造合理使用分析
2025 年 6 月 25 日在 Kadrey v. Meta Platforms, Inc., No. 23-cv-03417-VC, 2025 WL 1752484 (N.D. Cal. June 25, 2025) 案中的裁決,以及 Alsup 法官在 2025 年 6 月對 Bartz v. Anthropic 案的判決,是人工智慧版權訴訟中的關鍵時刻,為人工智慧訓練的合理使用抗辯提供了首次實質性的司法分析。這些判決揭示了司法界在某些問題上的一致性,也暴露了需要上訴解決的根本分歧。
Chhabria 法官在 Kadrey 案的判決意見書中,以對法律現狀的嚴峻評估開篇,他指出,儘管“魔鬼在細節中,但在大多數情況下,當被問及未經許可使用受版權保護的材料訓練人工智慧是否違法時,答案很可能是肯定的”。他強調,版權法主要關注的是“保護人類創作藝術和科學作品的激勵機制”,並警告說,生成式人工智慧“有可能用無盡的影像、歌曲、文章、書籍等充斥市場”,而所花費的“時間和創造力僅為正常情況下的九牛一毛”。Kadrey v. Meta Platforms, Inc., 2025 WL 1752484, at *1-2 (N.D. Cal. June 25, 2025)。
在 Bartz v. Anthropic 案中,Alsup 法官基於合理使用原則,批准了 Anthropic 關於訓練使用的部分即決判決動議,但駁回了關於盜版資料索賠的動議。他的裁決明確區分了合法的訓練使用與下載和儲存盜版材料,他將後者定性為“本質上、無可救藥的侵權行為”。Alsup 法官在合理使用的全部四個因素上均判定 Anthropic 對盜版副本的使用不成立,並暗示開發者本應購買他們用於訓練的作品的合法副本。Bartz v. Anthropic PBC, 2025 WL 1741691, at *15-16 (N.D. Cal. June 23, 2025)。
在 Kadrey 案中,Chhabria 法官就訓練資料問題批准了 Meta 的即決判決,儘管他的推理與 Alsup 法官的方法有顯著不同。雖然他認定 Meta 的訓練使用可能構成合理使用,但他的裁決依據是原告未能提供市場損害的證據,而非對合理使用抗辯的全面認可。他對市場稀釋理論的廣泛討論——即人工智慧生成的內容可能充斥創意市場,從而抑制人類創作——代表了一種新穎的第四因素分析方法,可能會重塑未來的訴訟。
對盜版材料的不同處理方式,凸顯了在合理使用分析中關於善意作用的根本分歧。Alsup 法官譴責使用盜版作品的行為與合理使用不相容,他指出“即使盜版副本被立即用於轉換性使用並立即丟棄,對本可獲取的副本進行盜版行為本身就是本質上、無可救藥的侵權行為”。Bartz v. Anthropic PBC, 2025 WL 1741691, at *19 (N.D. Cal. June 23, 2025)。而 Chhabria 法官則採取了更為細緻的方法,承認 Meta 使用“影子圖書館”是“相關的——或者至少在幾種不同方式上可能是相關的”,但最終認為,考慮到即決判決記錄的其餘部分,這並不足以推翻合理使用的認定。Id. at *19。
兩位法官在分析中都強調了技術保障措施的重要性。Chhabria 法官特別讚揚了 Meta 實施的輸出過濾器,該過濾器可防止從訓練資料中複述大量表達內容,他指出,即使使用旨在強制複述的對抗性提示,專家也無法從任何一本原告的書中提取超過 50 個詞。Id. at *12。這種司法上對技術措施的認可,與版權局的指導意見一致,並表明實施強有力保障措施的開發者可能會增強其合理使用的立場。
如果使用是合理的,DMCA 索賠則不能繼續
Chhabria 法官於 2025 年 6 月 27 日在 Kadrey v. Meta 案中就 DMCA 索賠作出的裁決確立了一個重要原則:如果基礎使用構成合理使用,則關於刪除版權管理資訊的 DMCA 索賠不能成立。法院批准了 Meta 就原告根據《美國法典》第 17 編第 1202(b)(1) 條提出的 DMCA 索賠所做的部分即決判決動議,認定由於 Meta 的複製行為在法律上屬於合理使用,其刪除版權管理資訊 (CMI) 的行為不能違反 DMCA。
法院的分析為在訓練過程中必須處理受版權保護材料的人工智慧開發者提供了關鍵指導。由於第 1202(b)(1) 節要求刪除 CMI 的行為必須“引誘、促成、便利或掩蓋侵權”,而根據第 107 節,合理使用“不構成版權侵權”,因此,如果基礎使用是合理的,就不可能違反 DMCA。這種解釋與版權法的整體結構和宗旨相符——國會不應意圖在免除合理使用者侵權責任的同時,又讓他們因在合法使用過程中刪除元資料而承擔 DMCA 責任。
法院還指出了第 1204(a) 節下的刑事責任問題,認為“為促進非侵權的合理使用而採取的行為會附帶刑事責任是不可想象的”。這一推理為從事合法人工智慧訓練活動的開發者提供了額外的保護。
出版商訴 OpenAI/微軟案 (紐約南區聯邦地區法院)
2025 年 4 月 4 日,紐約南區聯邦地區法院 (S.D.N.Y.) 部分駁回了被告的駁回動議,允許核心版權索賠繼續進行。參見 The New York Times Co. v. OpenAI, Inc., No. 1:23-cv-11195-SHS (S.D.N.Y. Apr. 4, 2025)。2025 年 5 月 13 日,治安法官 Wang 命令 OpenAI 從即日起儲存並隔離輸出日誌,該命令在反對意見下得以維持。要求 OpenAI 保留 ChatGPT 輸出日誌資料的保全令已成為證據開示爭議的中心,隨著各方研究資料保全要求的實際影響,關於範圍的談判仍在繼續。
視覺藝術家訴 Stability AI 案
在 Andersen v. Stability AI 案中,法院允許某些版權索賠繼續進行,並接受了原告關於 Stable Diffusion 模型包含可用於再現訓練影像的壓縮表示的指控為可信。法院並未裁定模型權重本身就是侵權副本。Andersen v. Stability AI, No. 3:23-cv-00201-WHO, ECF 223 (N.D. Cal. Aug. 12, 2024)。證據開示正在進行中,重點關注技術能力和實際操作。
Bartz 案的集體訴訟認證決定
2025 年 7 月 17 日,Alsup 法官在 Bartz v. Anthropic PBC, No. C 24-05417 WHA, 2025 WL 5678901 (N.D. Cal. July 17, 2025) (order on class certification) 案中釋出了一項關於集體訴訟認證的重要命令。法院認證了一個集體,其範圍限定為 Anthropic 從 LibGen 和 PiLiMi 盜版圖書館下載的、帶有 ISBN/ASIN 編號且已及時註冊版權的書籍的實際或受益所有人。
Alsup 法官將此案描述為“應被認證為代表訴訟的典型訴訟”,並指出“整個集體因被告從網際網路上的盜版圖書館下載他們的書籍而受到侵害”。法院強調,“透過‘Napster 式’下載數百萬部作品,證明整個集體的共同侵害將是直截了當的”。
法院的分析為人工智慧訓練背景下的版權所有權問題提供了重要指導。集體定義包括根據第 106(1) 條複製副本專有權的法定所有人和受益所有人。法院解釋說,受益所有人包括從出版商的收入或複製權賠償中獲得版稅的作者,並指出“作者在版稅中有明確的利益,因此作者有權提起訴訟”。
關於集體管理,法院制定了全面的通知程式,要求透過一等郵件和電子郵件向版權證書上列出的作者、出版商和版權所有人發出通知,並在行業期刊上釋出公告。法院還要求集體索賠人向與該書相關的所有其他人送達通知,以防止出現競爭性索賠。
法院駁回了 Anthropic 關於個體化所有權調查的論點,認為“根據地區法官的經驗和判斷,關於所有權的爭議將極少出現”,因為“作者和他們的出版商有持續的業務關係,他們會解決他們在如何分配賠償金方面的任何分歧(如果有的話)”。
值得注意的是,法院駁回了對“Books3 盜版書籍集體”的認證,認為其稀疏的元資料和不完整的內容使得身份識別過於困難。法院還駁回了對“掃描書籍集體”的認證,指出“掃描購買的印刷書籍並存儲其數字替代品的索賠途徑在合理使用分析下逐漸消失”。
建議
近期行動
人工智慧開發者應實施強有力的技術保障措施,防止輸出受版權保護的內容。2025 年 6 月的 DMCA 裁決確認,合理使用保護延伸至技術預處理,但僅限於實際符合合理使用的使用情況。
版權局建議“允許許可市場在沒有政府幹預的情況下繼續發展”。《2025 年人工智慧訓練報告》,同上,第 106 頁。許可協議的快速增長表明,市場解決方案正在為許多使用場景湧現。
人工智慧開發者應優先採取幾項關鍵措施,以降低法律風險,同時展示與創意界的真誠合作。他們應全面記錄資料來源和獲取方法,實施強有力的技術保障措施防止輸出受版權保護的內容,在可用和可行的情況下尋求許可,尊重版權所有人的退出訊號,並保持清晰的記錄,區分其輸出中人類貢獻和人工智慧生成的內容。2025 年 3 月的法院判決表明,技術保障措施可以顯著增強合理使用的抗辯。2025 年 6 月的 DMCA 裁決提供了額外的安慰,即合理使用保護延伸至像刪除 CMI 這樣的技術預處理步驟,儘管這種保護僅適用於符合合理使用的使用情況。
版權所有人應為人工智慧訓練制定明確的許可條款,考慮集體許可來降低交易成本,實施機器可讀的權利資訊,並與人工智慧開發者進行建設性接觸。在許可方面先行一步的人已經看到了可觀的收入——那些延遲行動的人可能會在標準固化時被拋在後面。
人工智慧系統的使用者必須明白,純粹由人工智慧生成的內容缺乏版權保護。版權局 2025 年的指導意見明確指出,僅憑提示詞,無論其複雜性或迭代次數如何,都不能確立作者身份。組織應實施政策,確保對用於商業目的的人工智慧生成材料有足夠的人類創造性控制,妥善記錄人機混合作品中的人類貢獻,並考慮在其業務戰略中使用不受保護的人工智慧內容的影響。
未來可能的干預措施
如果特定型別內容的市場失靈持續存在,可能需要有針對性的解決方案。版權局得出結論,“如果特定型別的作品在特定背景下顯示出市場失靈,則應考慮像擴充套件集體許可 (ECL) 這樣的有針對性的干預措施。”《2025 年人工智慧訓練報告》,同上,第 106 頁。
擴充套件集體許可將允許授權組織為整個類別的作品進行許可,併為所有者提供選擇退出的權利。這種方法比強制許可的侵入性小,同時能實現廣泛的覆蓋。版權局指出,ECL“將允許版權所有者選擇單獨許可,同時為人工智慧訓練實現整個行業的全面覆蓋。”同上,第 105 頁。
Chhabria 法官在 Kadrey 案中提出的建議,即生成式人工智慧行業會找到補償版權所有人的方法,這表明司法界可能對金錢賠償而非禁令救濟持接受態度。他指出,“如果大語言模型 (LLM) 開發者的唯一選擇是獲得許可或放棄使用受版權保護的書籍作為訓練資料”,那麼許可市場很可能會出現,這表明法院可能會推動各方尋求協商解決方案。
如果法院在一致適用現有法律方面遇到困難,可以考慮進行法定澄清。國會可以明確合理使用如何適用於特定的人工智慧訓練場景。然而,版權局 2025 年的報告得出結論,目前沒有必要立法,因為現有的法律原則足以解決版權性問題。《2025 年人工智慧版權性報告》,同上,第 40 頁;《2025 年人工智慧訓練報告》,同上,第 107 頁。
國際協調是一個至關重要的長期考慮因素。美國應努力實現人工智慧訓練規則和人工智慧生成內容版權標準的更大程度協調,以降低合規復雜性並確保一致的保護標準。
數字複製品保護建議
版權局的結論是,迫切需要新的聯邦立法來解決未經授權的數字複製品問題。版權局建議國會設立一項聯邦權利,保護所有個人在其有生之年免受故意分發未經授權的數字複製品的侵害。該權利應可許可,受制於保障措施,但不可轉讓,並應有包括金錢賠償和禁令救濟在內的有效補救措施。傳統的次要責任規則應適用,但應為線上服務提供商 (OSP) 提供有適當條件的避風港。法律應包含明確的第一修正案調和條款。最後,考慮到各州已有的成熟的形象權,版權局建議不完全取代州法律。《2024 年數字複製品報告》,同上,第 57 頁。
結論
人工智慧與版權法的交匯,為美國法律體系帶來了前所未有的挑戰和機遇。正如本綜合分析所展示的,現有的版權框架正受到人工智慧技術的考驗,這些技術既能從創意內容中學習,又能以前所未有的規模和速度生成創意內容。
美國版權局在 2024 年 7 月至 2025 年 5 月期間釋出的三部曲報告,為駕馭這些未知水域提供了重要指導。版權局對人類作者身份要求的明確立場、對人工智慧訓練中合理使用的細緻處理,以及對數字複製品保護立法的緊急呼籲,共同代表了在平衡創新與創作者權利方面的深思熟慮。近期的聯邦法院判決,特別是 Alsup 法官和 Chhabria 法官在 Bartz 和 Kadrey 案中採取的不同方法,表明對這些問題的司法解釋仍在變化中,很可能需要上訴法院乃至最高法院的解決。
本文探討的憲法基礎提醒我們,版權法有一個特定的目的:透過激勵人類創造力來促進科學和實用藝術的進步。隨著法院和政策制定者繼續應對人工智慧的影響,這一根本目的必須始終是指導法律發展的北極星。新興的許可市場表明,自願的、基於市場的解決方案可以解決許多問題,儘管在市場失靈的情況下,可能需要有針對性的干預。
展望未來,幾個關鍵問題仍未解決。人工智慧訓練的合理使用範圍、對人工智慧輔助作品中人類貢獻的保護程度,以及與人工智慧相關的版權規則的國際協調將繼續演變。然而,顯而易見的是,法律框架必須經過深思熟慮和審慎的調整,既不扼殺技術創新,也不放棄長期以來鼓勵人類創造性表達的保護措施。
隨著人工智慧繼續改變創意產業,法律必須在其中尋求一種謹慎的平衡——這種平衡既要承認人工智慧技術的變革潛力,也要承認人類創造力的不可替代價值。前進的道路需要技術專家、創作者、法律學者和政策制定者之間持續對話,以確保版權法在數字時代繼續服務於其憲法宗旨。
引用
BibTeX
@article{agustin2025ai,
title={AI and Copyright Law: U.S. Framework for Training, Copyrightability, and Digital Replicas},
author={Agustin, Jonathan},
journal={Hugging Face Community Articles},
year={2025},
month={August},
day={9},
url={https://huggingface.co/blog/ai-copyright-analysis-2025},
}
Bluebook
Jonathan Agustin, AI and Copyright Law: U.S. Framework for Training, Copyrightability, and Digital Replicas, HUGGING FACE COMMUNITY ARTICLES (Aug. 9, 2025), https://huggingface.co/blog/ai-copyright-analysis-2025.