Sora權限被故意洩漏生成效果流出藝術家怒斥OpenAI:我們不是免費的傀儡
一直被外界寄予極高期望的OpenAI文生視訊AI模型Sora自今年2月首次展示以來,就沒有任何關於何時正式發布的消息了。當地時間11月26日,一些據稱參與了Sora測試的藝術家洩露了該模型的訪問權限(API),以抗議OpenAI對他們的壓榨行為。
當日,公共AI模型社群Hugging Face突然出現了一個文生影片的計畫。專案團隊使用他們的身份驗證令牌(可能來自早期存取系統)創建了一個前端,讓所有Hugging Face的使用者可以使用Sora產生視訊。
圖片來源:Hugging Face專案截圖
透過這前端,使用者可以透過輸入簡短的文字描述來產生解析度高達1080p的10秒影片。但在專案創建三個小時後,OpenAI就關閉了所有藝術家對Sora的早期存取權限。目前該項目已無法使用。在短短的三小時內,用戶透過這項專案產生了87個影片並發布了出來。
目前OpenAI並沒有公開確認所謂的Sora洩漏是否屬實。但是OpenAI強調,參與其「研究預覽」是「自願的,沒有義務提供回饋或使用該工具」。
OpenAI暫停Sora存取權限這一舉動也暴露出AI產業的透明度問題。隨後,藝術家團體發布了一個公開信網站,鼓勵任何與他們有相同觀點的人簽署這封公開信。截至發稿,這封信已經收到550個簽名,包括馬斯克。
當地時間11月26日,一小群參與Sora測試的藝術家在Hugging Face洩漏了Sora的訪問權限,以表達對OpenAI的不滿。專案團隊使用他們的身份驗證令牌(可能來自早期存取系統)創建了一個前端,讓所有Hugging Face的使用者可以使用Sora產生視訊。
先前,OpenAI向數百名藝術家開放了Sora的早期使用權,以測試這款新的AI影片產生器。但部分藝術家認為,OpenAI利用了他們的無償勞動,並利用他們來提升公司形象。
為引起外界對OpenAI這一行為的關注,他們在公共AI模型社區Hugging Face上發布了一個線上項目,允許公眾使用Sora生成影片。
隨專案同時發布的還有一封言辭激烈的公開信。在信中,藝術家們將OpenAI比作“中世紀的封建領主”,譴責他們利用了藝術家的無私貢獻,卻並沒有給予合理的報酬。 「我們獲得了Sora的使用權,並承諾成為早期測試者、紅隊成員和創意合作夥伴。然而,我們認為,我們被引誘進行『藝術洗白’,以告訴世界Sora對藝術家來說是一個有用的工具。
這封信充斥著對OpenAI的不滿,藝術家們寫道:“我們不是你的無償研發人員。我們不是你的:免費錯誤測試人員、PR(公關)傀儡、訓練數據和驗證令牌。”
儘管參與模型測試的藝術家有數百名,但只有少數作品進行展映,而且報酬極為有限,與OpenAI獲得的巨大公關和營銷價值相比,簡直是微不足道。更讓這些藝術家們憤怒的是,“每個影片都需要OpenAI團隊的批准才能分享。這個早期訪問計劃似乎更多關注的是公關和廣告,而不是創作表達和批評。”
他們在信中強調,「我們並不反對將AI技術作為藝術工具使用(如果我們反對,可能就不會參加這個計畫)。我們不同意的是藝術家計畫的推出方式,以及該工具在可能公開發布先前的呈現方式。
他們也呼籲其他藝術家使用開源的影片產生工具來抵制OpenAI這種閉源公司。 “開源視頻生成工具讓藝術家能夠在沒有門檻、商業利益或服務於任何公司的公關目的下,探索前衛藝術。我們也鼓勵藝術家使用自己的數據集來訓練自己的模型。”
但在藝術家們上線Sora API專案後三小時,OpenAI迅速切斷了存取權限。 OpenAI發言人Niko Felix稱,公司將暫停所有用戶對Sora的訪問,同時調查情況。但他拒絕說明這個計畫是不是真的連結到了Sora模型。 “Sora仍處於研究預覽階段,我們正努力在創造力與更廣泛的強大安全措施之間取得平衡。”
Felix同時說:「我們alpha版本的數百名藝術家塑造了Sora的發展,幫助確定新功能和保障措施的優先順序。參與是自願的,沒有提供回饋或使用該工具的義務。我們很高興為這些藝術家提供免費訪問權限,並將繼續透過贈款、活動和其他計劃為他們提供支持。
在OpenAI暫停Sora訪問權限後,該藝術家團體發布了一個公開信網站,鼓勵任何與他們有相同觀點的人簽署這封公開信。
截至發稿,這封信已經收到550個簽名,與OpenAI極度不對付的馬斯克也在其中。
這次事件在AI產業並不常見,因為早期測試人員的回饋受到公司的嚴格控制,而且嚴厲的批評很少公開。通常,公司會親自挑選哪些外部人員可以提前存取系統,在某些情況下,公司會要求這些用戶簽署保密協議或獲得批准,然後才能公開分享系統產生的任何圖像、影片或文字回應。
但最近,越來越多的AI安全專家批評這種做法對獨立研究產生了寒蟬效應,降低了透明度,並阻礙了對公司行為的問責。史丹佛大學的基礎模型透明度指數顯示,沒有一家主要的基礎模型開發商能夠提供足夠的透明度(最高得分54分,滿分100分),這揭示了AI行業缺乏透明度。
OpenAI的員工先前也指責公司強迫員工簽署“封口協議”,不允許離職員工發表對公司負面言論,否則公司可以收回員工已有股權。離職員工也不得對外公開這些協議內容。
為此,今年六月,OpenAI和GoogleDeepMind的一群員工共同發布了一份名為《對AI發出警告》的公開信。
公開信預警,AI技術存在加劇不平等,操縱和誤導訊息,失去控制並威脅人類的風險。 AI公司技術迭代的同時產生了大量安全相關的非公開信息,它們沒有主動披露的動機。監管部門對此難以形成有效制約,只能由現任或前任員工要求它們向公眾負責。
上述員工在公開信中對包括OpenAI在內的AI公司提出了四點呼籲:其一,不強迫員工簽訂禁止批評公司的協議;其二,為公司現任和前任員工提供匿名的安全反饋機制;其三,允許現任和前任員工向董事會、監管機構、其他安全機構提出對公司技術安全的擔憂;其四,公司不對公開分享風險相關機密資訊的現任和前任員工進行報復。
正如Hugging Face的一則評論所說,「AI並非憑空而來。它建立在創意人員的肩膀上,而這些創意人員往往沒有得到認可。Sora洩密事件敲響了警鐘:沒有道德的創新就是剝削。 」