OpenAI開撕紐約時報:故意引導ChatGPT得出抄襲結論
OpenAI的反擊來了。
針對被紐約時報提起史上最受關注的侵權訴訟一案,OpenAI公開發表長文表明立場。
文章直接表示:整個訴訟毫無根據,并指出紐約時報:
- 存在故意引導ChatGPT之嫌疑
- 隱瞞信息,沒有講出完整的事情經過
圖片
以及OpenAI的總體觀點是:
(1)使用版權數據訓練合理。沒有它們,哪來的當今世界上最先進的模型?(2)如果你不想被訓練?可以退出。單一數據源(包括紐約時報在內)的缺失也不會對模型的表現造成重要影響。
消息一出,吃瓜群眾再次火速聚集,吵成一團。
支持OpenAI的直接“蝦仁豬心”:
紐約時報退出訓練數據集,反而會讓模型輸出質量更好(Doge)
圖片
有人則問了當事模型GPT-4的看法,結果AI也把紐約時報無情嘲諷了一番:
圖片
吳恩達也洋洋灑灑寫了一大堆,總結來說就是:
同情OpenAI多于紐約時報,后者所說的全文抄襲更可能是RAG機制所致,并且實測OpenAI已經堵住漏洞,質疑紐約時報究竟受到了多少實際損失。
圖片
不過,反方網友也毫不留情,直接指著鼻子罵:
OpenAI,你太雙標了,什么訓練合理,都是為了你的利益最大化罷了。
圖片
你才是那個沒有講出完整故事的人。
圖片
OpenAI具體回應
先來看看OpenAI回應的具體立場,一共包含四個點:
1、非常樂意與新聞機構合作
OpenAI表示,自己在技術設計過程中努力行動支持新聞機構,會見了數十家相關媒體,聆聽他們提出的擔憂,并提供解決方案。
其本意也是支持健康的新聞生態系統,并實現互利互惠,具體包括:
(1)通過部署他們的產品,來協助新聞從業者完成一些耗時的任務,比如分析大量公共記錄和翻譯故事,最終讓編輯和記者從中受益。
(2)通過對歷史、非公開內容進行訓練,向他們的AI模型傳授世界知識。
(3)在ChatGPT回答中顯示帶有歸屬信息的實時內容,為新聞發布者與讀者建立聯系。
2、訓練屬于合理使用,提供退出機制
OpenAI此前就在提交給英國上議院的一份意見書中警告稱:
如果沒有受版權內容的訓練,我們的模型就將無法運行。
在此,OpenAI再次表示,使用公開的互聯網材料訓練AI模型是合理的,既對創作者公平、對創新者必要,也對國家的競爭力至關重要。
并指出這一觀點已經在美國得到很多團體、學者的支持,在其他國家和地區例如歐盟、日本、新加坡等甚至有法律支持對受版權保護的內容進行訓練。
不過,話鋒一轉,本著“合法權利對我們來說不如成為好公民重要”,OpenAI表示自己提供了一個簡單的退出流程,可以防止他們的AI模型再次訪問這些網站數據。
據介紹,紐約時報已經于2023年8月采用這一機制,退出OpenAI的訓練。
3、“反流”是罕見錯誤,希望用戶也不要故意引導
所謂“反流”(Regurgitation),其實就是指模型輸出和訓練數據一模一樣的內容。
紐約時報在訴訟中就列出ChatGPT和該家新聞驚人雷同的情況:
圖片
對于這一文縐縐的表達,有網友是不滿的:不就是抄襲(plagarism)嗎?
圖片
但不管怎么說,OpenAI的解釋是:
當特定內容在訓練數據中多次出現時就會出現這種罕見的錯誤,不過我們已經采取了措施來防止情況出現。
以及,OpenAI也特別勸誡用戶:
采取負責任的行為,不要故意操縱模型進行反流,這既是對我們技術的不當使用,也違反了我們的使用條款。
然而,馬庫斯和一位數字插畫家幾天前曾聯合撰文,列出包括 DALL-E 3在內的AI模型如何在沒有明確提示的情況下的不少“反芻數據”,也就是給出一些明顯和已有作品場景基本相似的圖片等內容。
而這,就使得OpenAI的說法有些矛盾。
最后,在本段末尾,OpenAI還來了一句:
模型是從人類知識的巨大集合中學習的,因此任何一類數據(包括新聞)都只是整體訓練數據的一小部分,任何單一數據源(包括紐約時報在內),對于模型的知識學習都并不重要。
4、完整故事被隱藏,收到起訴后驚訝又失望
OpenAI透露,在去年12月19日時,其實已經和紐約時報取得了建設性談判進展,包括在回答中實時顯示來源和跳轉等,并和紐約時報解釋:
與任何單一來源一樣,你們的內容對我們現有模型的訓練沒有任何有意義的貢獻,也不會對未來的訓練產生足夠的影響。
然而OpenAI表示沒想到,12月27號就被直接起訴了,并且還是通過紐約時報的消息才知道——心情整個就是一個既驚訝又失望。
在此,OpenAI指出,對于紐約時報指出的”反流”情況(也就是回答逐字抄寫紐約時報新聞),他們很努力解決這個問題,拿出了誠意,并曾要求后者分享示例,但一再遭到拒絕。
更有趣的是,OpenAI發現,所謂的“反流”內容,其實是多年前多個第三方網站上大量傳播的文章(即并非來自紐約時報)。
以及紐約時報可能涉嫌故意操縱提示詞——放進去大段原文讓模型“上當”。
OpenAI表示,按照他們這么操作,模型其實也并沒有像紐約時報展示的那樣夸張。
這說明:他們要么故意引導模型,要么進行過精挑細選。
綜合以上,OpenAI認為:
紐約時報的訴訟毫無根據。
不過緩和的場面話也是有的:
我們仍然希望與其建立合作伙伴關系,畢竟它曾在60年前報道了第一個有效工作的神經網絡。
前情回顧
去年12月27日,紐約時報突然一紙狀書、220000頁附件,遞交到地方法院狀告OpenAI侵權,當然還包括微軟。
訴狀中指出,紐約時報的文章構成了Common Crawl中用于訓練GPT的最大單個專有數據集。
基于此,他們找到了多達100個鐵證,證明ChatGPT輸出內容與紐約時報新聞內容幾乎一模一樣。
并且有時由于幻覺問題,模型還會以紐約時報的名義“造謠”,生成一些假新聞,例如橙汁會導致淋巴癌,這也對他們的名聲造成了困擾。
對此,紐約時報的訴求是:
要求OpenAI和微軟銷毀包含侵權材料的模型和訓練數據,并對非法復制和使用《紐約時報》獨有價值的作品相關的“數十億美元的法定和實際損失”負責。
由于證據充足、律師團隊強大,網友直呼這是一起“見證AI侵權里程碑式的案件”、“恐怕不能再像之前擺平其他出版商那樣三瓜兩棗就打發了”。
圖片
據了解,去年4月份時,紐約時報就與OpenAI談判,但沒談妥,OpenAI拒絕達成協議。
原因可能是金額巨大,特別是考慮到OpenAI利潤的增長以及類似案例的增多。
有一個大膽猜測是,OpenAI可能想用七至八位數金額(百萬美元/千萬美元)解決此事,但紐約時報所追求的是更高的賠償和持續的版稅收入。
Ps. OpenAI年收入在16億美元左右,每年用于買授權文章和材料進行訓練的金額在100萬美元至500萬美元之間。
這次,網友站哪邊?
有網友指出,這起案子的關鍵是“訓練是否為合理使用”,而他認為:
模型的輸出可能會侵權,但輸入不會。
圖片
但有人諷刺道:
當你擁有數十億美元時,一切都是合理使用。
圖片
也有人提出:
我同意為合理使用,但前提是你開源。
圖片
并有人附和:
確實強調非營利性組織很重要。
圖片
此外,對于OpenAI提出的退出機制,有一位作家網友不滿的聲音也得到了很多支持:
光退出,也就是禁止你們的模型讀取我的個人網站還不夠,我還需要你仔細檢查并從訓練數據中完全刪除我的內容。
圖片
結局究竟會如何?
一項調查顯示,有59%的受訪者認為,不應允許人工智能公司使用出版商內容來訓練模型。
而70%的人表示,如果公司想在模型訓練中使用受版權保護的材料,則應向出版商進行補償。
看起來,輿論似乎是站在紐約時報這一邊的。
你覺得這個案子應該怎么判?
參考鏈接:[1]https://openai.com/blog/openai-and-journalism
[2]https://x.com/OpenAI/status/1744419710635229424?s=20
[3]https://www.ft.com/content/04861d1e-2e9f-4b92-a294-8d0c223a8287
[4]https://techcrunch.com/2024/01/08/openai-claims-ny-times-copyright-lawsuit-is-without-merit/
[5]https://www.theregister.com/2024/01/08/midjourney_openai_copyright/
[6]https://x.com/AndrewYNg/status/1744433663969022090?s=20 [7]https://x.com/futuristflower/status/1744422698636218807?s=20