狡猾的人工智慧模型故意破壞訓練圖像以規避版權問題
以原始圖像為基礎進行訓練的文本到圖像人工智慧模型可以記憶原始圖像,並產生複製品,從而引發版權侵權問題。新開發的人工智慧模型只對損壞的圖像進行訓練,從而解決了這個法律難題。
Ambient Diffusion 是一種文字到圖像的人工智慧模型,它透過使用嚴重破壞的圖像來保護藝術家的版權。
文字到圖像生成器的一個大問題是,它們能夠複製用來訓練它們的原創作品,從而侵犯藝術家的版權。根據美國法律,如果你創作了原創作品並將其”固定”為有形的形式,你就擁有了它的版權–字面意思是複製它的權利。在大多數情況下,未經創作者授權,不得使用受版權保護的圖片。
今年5 月,Google母公司Alphabet 遭到一群藝術家的集體版權訴訟,聲稱Google未經許可使用了他們的作品來訓練其人工智慧圖像生成器Imagen。 Stability AI、Midjourney 和DeviantArt(它們都使用了Stability 的Stable Diffusion 工具)也面臨類似的訴訟。
為了避免這個問題,德州大學奧斯汀分校和加州大學柏克萊分校的研究人員開發了一種基於擴散的生成式人工智慧框架,該框架只對已損壞到無法識別的圖像進行訓練,從而消除了人工智慧記憶和複製原創作品的可能性。
擴散模型是一種先進的機器學習演算法,它透過向數據集逐步添加雜訊來產生高品質的數據,然後學習逆轉這一過程。最近的研究表明,這些模型可以記憶訓練集中的範例。這顯然會對隱私、安全和版權產生影響。這裡有一個與藝術品無關的例子:人工智慧需要接受X 光掃描訓練,但不能記住特定病人的圖像,否則就會侵犯病人的隱私。為了避免這種情況,模型製作者可以引入圖像損壞。
研究人員利用他們的環境擴散框架證明,只需使用高度損壞的樣本,就能訓練擴散模型產生高品質的影像。
根據”乾淨”(左)和損壞(右)的訓練影像產生的環境擴散輸出結果
上圖顯示了使用損壞時影像輸出的差異。研究人員首先用CelebA-HQ 高品質名人圖片資料庫中的3000 張”乾淨”圖片對模型進行了訓練。根據提示,此模型產生的影像與原圖幾乎完全相同(左圖)。然後,他們使用3000 張高度損壞的圖像對模型進行了重新訓練,其中多達90% 的單一像素被隨機屏蔽。雖然模型生成的人臉栩栩如生,但結果卻大相逕庭(右圖)。
UT奧斯汀分校計算機科學教授亞當-克里萬斯(Adam Klivans)是這項研究的共同作者,他表示:”從黑洞成像到某些類型的核磁共振成像掃描,基本上任何昂貴或不可能擁有全套未損壞資料的研究都會如此。
與現有的文字到圖像生成器一樣,其結果並非每次都完美無缺。關鍵是,藝術家們知道像Ambient Diffusion 這樣的模型不會記住並複製他們的原創作品,就可以稍微放心了。它能阻止其他人工智慧模型記住並複製他們的原始圖像嗎?不會,但這就是法院的職責所在。
研究人員已將他們的程式碼和環境擴散模型開源,以鼓勵進一步的研究。可在GitHub上查閱。
研究發表在預印本網站arXiv。