OpenAI開撕紐約時報:故意引導ChatGPT得出抄襲結論
OpenAI的反擊來了。針對被紐約時報提起史上最受關注的侵權訴訟一案,OpenAI公開發表長文表明立場。文章直接表示:整起訴訟毫無根據,並指出紐約時報:
- 存在故意引導ChatGPT之嫌疑
- 隱瞞訊息,沒有講出完整的事情經過
而OpenAI的總體觀點是:
(1)使用版權資料訓練合理。沒有它們,哪來的當今世界上最先進的模型?
(2)如果你不想被訓練?可以退出。單一資料來源(包括紐約時報在內)的缺失也不會對模型的表現造成重要影響。
消息一出,吃瓜群眾再次火速聚集,吵成一團。
支持OpenAI的直接「蝦仁豬心」:
紐約時報退出訓練資料集,反而會讓模型輸出品質更好(Doge)
有人則問了當事人模式GPT-4的看法,結果AI也把紐約時報無情嘲諷了一番:
吳恩達也洋洋灑灑寫了一大堆,總結來說就是:
同情OpenAI多於紐約時報,後者所說的全文抄襲更可能是RAG機制所致,並且實測OpenAI已經堵住漏洞,質疑紐約時報究竟受到了多少實際損失。
不過,反方網友也毫不留情,直接指著鼻子罵:
OpenAI,你太雙標了,什麼訓練合理,都是為了你的利益最大化罷了。
你才是那個沒有講完整故事的人。
OpenAI具體回應
先來看看OpenAI回應的具體立場,總共包含四個點:
1.非常樂意與新聞社合作
OpenAI表示,自己在技術設計過程中努力行動支持新聞機構,會見了數十家相關媒體,聆聽他們提出的擔憂,並提供解決方案。
其本意也是支持健康的新聞生態系統,並實現互利互惠,具體包括:
(1)透過部署他們的產品,來協助新聞從業人員完成一些耗時的任務,例如分析大量公共記錄和翻譯故事,最終讓編輯和記者從中受益。
(2)透過對歷史、非公開內容進行訓練,向他們的AI模型傳授世界知識。
(3)在ChatGPT回答中顯示帶有歸屬資訊的即時內容,為新聞發布者與讀者建立聯繫。
2、訓練屬於合理使用,提供退出機制
OpenAI先前就在提交給英國上議院的一份意見書中警告:
如果沒有受版權內容的訓練,我們的模型就無法運作。
在此,OpenAI再次表示,使用公開的網路材料訓練AI模型是合理的,既對創作者公平、對創新者必要,也對國家的競爭力至關重要。
並指出這一觀點已經在美國得到許多團體、學者的支持,在其他國家和地區例如歐盟、日本、新加坡等甚至有法律支持對受版權保護的內容進行訓練。
不過,話鋒一轉,本著“合法權利對我們來說不如成為好公民重要”,OpenAI表示自己提供了一個簡單的退出流程,可以防止他們的AI模型再次訪問這些網站數據。
據介紹,紐約時報已經在2023年8月採用此機制,退出OpenAI的訓練。
3.「反流」是罕見錯誤,希望用戶不要故意引導
所謂「逆流」(Regurgitation),其實就是指模型輸出和訓練資料一模一樣的內容。
紐約時報在訴訟中就列出ChatGPT和該家新聞驚人雷同的情況:
對於這文縐縐的表達,有網友是不滿的:不就是抄襲(plagarism)嗎?
但不管怎麼說,OpenAI的解釋是:
當特定內容在訓練資料中多次出現時就會出現這種罕見的錯誤,不過我們已經採取了措施來防止情況出現。
以及,OpenAI也特別勸誡用戶:
採取負責任的行為,不要故意操縱模型進行反流,這既是對我們技術的不當使用,也違反了我們的使用條款。
然而,馬庫斯和一位數位插畫家幾天前曾聯合撰文,列出包括DALL-E 3在內的AI模型如何在沒有明確提示的情況下的不少“反芻數據”,也就是給出一些明顯且已有作品場景基本相似的圖片等內容。
而這,就使得OpenAI的說法有些矛盾。
最後,在本段末,OpenAI還來了一句:
模型是從人類知識的巨大集合中學習的,因此任何一類數據(包括新聞)都只是整體訓練數據的一小部分,任何單一數據源(包括紐約時報在內),對於模型的知識學習都並不重要。
4.完整故事被隱藏,收到起訴後驚訝又失望
OpenAI透露,在去年12月19日時,其實已經和紐約時報取得了建設性談判進展,包括在回答中即時顯示來源和跳轉等,並和紐約時報解釋:
就像任何單一來源一樣,你們的內容對我們現有模型的訓練沒有任何有意義的貢獻,也不會對未來的訓練產生足夠的影響。
然而OpenAI表示沒想到,12月27號就被直接起訴了,而且還是透過紐約時報的消息才知道──心情整個就是一個既驚訝又失望。
在此,OpenAI指出,對於紐約時報指出的」反流」情況(也就是回答逐字抄寫紐約時報新聞),他們很努力解決這個問題,拿出了誠意,並曾要求後者分享示例,但一再遭到拒絕。
更有趣的是,OpenAI發現,所謂的「反流」內容,其實是多年前多個第三方網站上大量傳播的文章(即並非來自紐約時報)。
以及紐約時報可能涉嫌故意操縱提示詞——放進去大段原文讓模型「上當」。
OpenAI表示,按照他們這麼做,模型其實也沒有像紐約時報展示的那麼誇張。
這說明:他們要麼故意引導模型,要麼進行過精挑細選。
綜合以上,OpenAI認為:
紐約時報的訴訟毫無根據。
不過緩和的場面話也是有的:
我們仍然希望與其建立合作關係,畢竟它曾在60年前報道了第一個有效運作的神經網路。
前情回顧
去年12月27日,紐約時報突然一紙狀書、220,000頁附件,遞交到地方法院狀告OpenAI侵權,當然還包括微軟。
訴狀中指出,紐約時報的文章構成了Common Crawl中用於訓練GPT的最大單一專有資料集。
基於此,他們找到了多達100個鐵證,證明ChatGPT輸出內容與紐約時報新聞內容幾乎一模一樣。
並且有時由於幻覺問題,模型還會以紐約時報的名義“造謠”,生成一些假新聞,例如橙汁會導致淋巴瘤,這也對他們的名聲造成了困擾。
對此,紐約時報的訴求是:
要求OpenAI和微軟銷毀包含侵權材料的模型和訓練數據,並對非法複製和使用《紐約時報》獨有價值的作品相關的「數十億美元的法定和實際損失」負責。
由於證據充足、律師團隊強大,網友直呼這是一起「見證AI侵權里程碑式的案件」、「恐怕不能再像之前擺平其他出版商那樣三瓜兩棗就打發了」。
據了解,去年4月時,紐約時報就與OpenAI談判,但沒談妥,OpenAI拒絕達成協議。
原因可能是金額龐大,特別是考慮到OpenAI利潤的成長以及類似案例的增加。
有一個大膽猜測是,OpenAI可能想用七至八位數金額(百萬美元/千萬美元)解決此事,但紐約時報所追求的是更高的賠償和持續的版稅收入。
Ps. OpenAI年收入在16億美元左右,每年用於買授權文章和材料進行訓練的金額在100萬美元至500萬美元之間。
這次,網友站在哪邊?
有網友指出,這起案子的關鍵是“訓練是否為合理使用”,而他認為:
模型的輸出可能會侵權,但輸入不會。
但有人諷刺:
當你擁有數十億美元時,一切都是合理使用。
也有人提出:
我同意為合理使用,但前提是你開源。
並且有人附和:
確實強調非營利組織很重要。
此外,對於OpenAI提出的退出機制,有一位作家網友不滿的聲音也得到了許多支持:
光退出,也就是禁止你們的模型讀取我的個人網站還不夠,我還需要你仔細檢查並從訓練資料中完全刪除我的內容。
結局究竟會如何?
一項調查顯示,有59%的受訪者認為,不應允許人工智慧公司使用出版商內容來訓練模型。
而70%的人表示,如果公司想在模型訓練中使用受版權保護的資料,則應向出版商進行補償。
看起來,輿論似乎是站在紐約時報這邊的。
你覺得這個案子該怎麼判?
參考連結:
[1]https://openai.com/blog/openai-and-journalism
[2]https://x.com/OpenAI/status/1744419710635229424?s=20
[3]https://www.ft.com/content/04861d1e-2e9f-4b92-a294-8d0c223a8287
[4]https://techcrunch.com/2024/01/08/openai-claims-ny-times-copyright-lawsuit-is-without-merit/
[5]https://www.theregister.com/2024/01/08/midjourney_openai_copyright/
[6]https://x.com/AndrewYNg/status/1744433663969022090?s=20
[7]https://x.com/futuristflower/status/1744422698636218807?s=20