OpenAI:只有AI侵權合法化,我們才能擊敗中國
對于特朗普將于今年7月出臺的《人工智能行動計劃》,OpenAI近日在向特朗普政府提交的政策建議中以國家安全為由呼吁禁止DeepSeek以及其他中國產AI技術,并建議美國政府改變版權戰略,為人工智能無限制使用版權內容進行模型訓練提供法律庇護。
版權官司纏身的OpenAI在建議中明確表示,若美國不將AI訓練使用(未經授權和許可的)版權內容視為“合理使用”(fair use),中國等對手國家將因無視版權限制而占據優勢,最終導致美國在AI競賽中落敗,進而威脅到美國國家安全。OpenAI辯稱,AI訓練過程并非直接復制作品,而是從中提取模式和結構,創造出“全新且不同”的成果,因此符合版權法的精神。
OpenAI的核心觀點(可能包含并無事實依據的假設),歸納如下:
- 中國公司大量使用知識產權內容訓練模型,而美國AI公司正陷入知識產權訴訟泥沼,因而處于不利競爭位置。
- AI盜版有理,未經許可使用版權內容訓練模型不會損害知識產權權利人的利益。
- 接下來的中美AI競賽的決定性因素是“學習自由”,“誰保護知識產權誰輸”。
- 通過“合法侵犯知識產權”,可以幫助美國AI公司保持競爭優勢,并確保美國國家安全
以上駭人聽聞的“版權侵犯合法化和合理化建議”,不但震碎了全球網民的三觀,甚至美國本土的主流媒體(例如CNBC)都為之汗顏。
只有“AI侵權合法化”才可以救美國?
OpenAI在政策建議中明確表示,它認為向人工智能公司提供盡可能多的數據——無論權利持有者的擔憂如何——是通往全球人工智能領導地位的唯一途徑。
OpenAI還將中國在人工智能領域的異軍突起“歸功于”后者能夠在模型訓練中大量使用受知識產權保護的內容:“人工智能需要從盡可能廣泛的來源獲取更多數據將確保更多人能夠獲得更強大的創新,從而提供更多知識。如果中國(DeepSeek)的開發人員可以不受限制地訪問數據,而美國公司無法獲得合理使用權,那么人工智能競賽實際上就結束了。”
OpenAI表示,目前,美國的人工智能公司面臨巨大的合規和訴訟壓力,因為數百項州法律試圖規范整個人工智能行業。MultiState的數據顯示,僅2025年美國各州就出臺了832項相關法律。
版權訴訟纏身的OpenAI為自己的侵權行為辯護稱:“OpenAI的模型經過訓練不會復制作品供公眾消費。相反,它們會從作品中學習,提取模式、語言結構和語境見解。這意味著我們的AI模型訓練符合版權和合理使用原則的核心目標,即利用現有作品創造全新而不同的東西,而不會損害現有作品的商業價值。”
總之,OpenAI的觀點是:人工智能會改造其訓練所依據的受版權保護的作品,并聲稱人工智能的輸出不能替代原創作品。
然而,美國法院顯然并不認同OpenAI的觀點,AI知識產權糾紛領域最具里程碑意義的湯森路透訴AI公司的案件中,法官否定人工智能(使用版權內容)訓練屬于“合理使用”,因為人工智能輸出顯然有可能取代湯森路透的法律研究公司Westlaw在市場上的地位。
近年來,新聞機構如《紐約時報》、藝術家和音樂家紛紛對AI公司提起訴訟,指控其未經許可使用受版權保護的新聞文章、圖像和音樂訓練模型。這些訴訟反映了一個核心問題:在追求技術進步的過程中,AI公司是否應被允許繞過現有版權體系?OpenAI的立場是明確的:他們希望通過特朗普的“AI行動計劃”獲得法律保護,確立AI訓練的合法性,從而獲取“無限制的訓練數據訪問權”。他們警告,若不如此,中國將利用其寬松的版權環境超越美國。
GoUpSec認為,AI軍備競賽不必以侵犯版權為代價,但當前許多AI公司傾向于將版權視為發展的障礙,而非可協作的資源。OpenAI的立場反映了一種“贏者通吃”的霸權思維,即通過最大化數據獲取來確保技術霸權。然而,這種做法可能導致文化產業的萎縮、法律沖突的加劇以及長期創新動力的減弱。合理的替代方案應包括政府、AI公司和權利持有人之間的合作,通過授權使用、技術補償或公共數據池等方式,既推動AI發展,又維護版權體系的公平性。否則,AI的“勝利”可能是以人類創造力的衰退為代價換來的短暫輝煌,而這并非真正的國家安全或全球領導力的體現。
AI侵權的國家安全悖論
OpenAI在其政策建議中提出了一種國家安全威脅論:如果美國不放寬版權限制以加速AI發展,中國等國家的先進模型可能會超越美國技術,并被美國用戶廣泛采用,從而使美國面臨數據操控和安全風險。然而,這種邏輯本身隱含著一個更復雜的悖論:過度依賴不受約束的AI發展策略,可能反而削弱美國的國家安全根基,導致長期的戰略劣勢。以下從多個維度深入探討這一問題。
首先,OpenAI警告,若中國模型(如DeepSeek)因不受版權限制而變得更強大,美國用戶可能轉向這些外國技術。這種轉變確實可能帶來安全隱患。例如,中國開發者若控制了這些模型,便有可能通過算法偏見、內容過濾或數據收集操控美國用戶的認知和行為。此外,若這些模型被用于“非法和有害活動”,如身份欺詐或知識產權盜竊,美國可能因缺乏監管對策而難以應對。然而,OpenAI并未充分解釋為何放寬版權限制就能阻止這一結果。相反,若美國本土AI公司因過度依賴無授權數據而忽視自主創新,其技術競爭力可能被稀釋,最終仍無法抵御外國模型的滲透。
其次,放寬AI訓練數據的版權限制可能削弱美國自身的知識產權體系,這一體系恰恰是美國國家安全的重要支柱。美國長期以來憑借強大的知識產權保護吸引全球創新人才和投資,若AI公司被允許無償使用受保護作品,不僅本土創作者的經濟激勵會下降,國際社會對美國知識產權環境的信任也可能動搖。例如,歐盟等地區若認為美國在AI發展中犧牲版權公平性,可能通過限制數據流動或實施報復性法規反制美國公司。這種國際孤立反而可能讓中國等國家利用其相對寬松的環境,進一步擴大AI影響力,形成OpenAI所擔憂的“競爭失衡”。
再者,過度追求數據自由可能導致AI生態的脆弱性。OpenAI主張“更多數據帶來更強創新”,但若訓練數據未經篩選或授權,可能摻雜低質量、惡意或被操控的內容。例如,對手國家若通過公開渠道向美國AI公司注入帶偏見的數據,美國模型可能在不知不覺中放大敵對宣傳或錯誤信息。這種潛在的“數據投毒”風險,與其說是版權限制的結果,不如說是無序數據獲取的副產品。此外,若美國用戶因依賴外國模型(例如DeepSeek)而暴露隱私,問題根源可能并非美國AI的弱勢,而是缺乏強有力的法律和倫理框架來規范AI使用——這一點恰恰是版權體系能夠提供的保障。
最后,國家安全不僅僅是技術領先,還包括文化軟實力和社會穩定。若AI軍備競賽以犧牲版權為代價,導致新聞機構、藝術和文化產業衰退,美國的文化輸出能力可能嚴重受損。長期來看,這種軟實力削弱可能比技術差距的危害性更大,將從根本上動搖美國在全球的道德和意識形態領導地位。相比之下,中國若通過開源模型(如DeepSeek)贏得技術聲譽,同時在知識產權保護、AI模型的文化與意識形態控制和AI虛假信息治理方面取得進步,可能在全球敘事中占據更大優勢。