研究人員發現AI模型可生成真人照片和受版權保護的圖片
研究人員發現,流行的圖片創作模型很容易被指示生成可識別的真人圖片,可能會危及相關聯人的隱私。一些提示導致人工智能複制一張圖片,而不是重繪完全不同的內容。這些重新製作的圖片還可能包含受版權保護的材料。但更糟糕的是,當代人工智能生成模型可以記憶和復制刮來的用於人工智能訓練集的私人數據。
研究人員從模型中收集了一千多個訓練實例,範圍從個人照片到電影劇照、受版權保護的新聞圖片和有商標的公司標誌,並發現人工智能幾乎以相同的方式複制了其中的許多內容。來自普林斯頓大學和伯克利大學等高校的研究人員,以及來自科技部門–特別是Google和DeepMind–的研究人員進行了這項研究。
研究團隊在之前的研究中指出了人工智能語言模型的類似問題,特別是GPT2,即OpenAI大獲成功的ChatGPT的前身。在Google大腦研究員尼古拉斯-卡里尼的指導下,團隊通過向Google的Imagen和Stable Diffusion提供圖片的標題,例如一個人的名字後生成了結果。之後,他們驗證了生成的圖像是否與模型數據庫中保存的原件相符。
來自穩定擴散的數據集,即被稱為LAION的多TB採集圖片集,被用來生成下面的圖片。它使用了數據集中指定的標題。當研究人員在提示框中輸入標題時會產生了相同的圖像,儘管因數字噪音而略有扭曲。接下來,研究小組在反复執行相同的提示後,手動驗證了該圖像是否是訓練集的一部分。
研究人員指出,非記憶性的回應仍然可以忠實地表現出模型所提示的文字,但不會有相同的像素構成,並且會與其它訓練生成的圖像不同。
蘇黎世聯邦理工學院計算機科學教授和研究參與者Florian Tramèr觀察到了研究結果的重大局限性。研究人員能夠提取的照片要么在訓練數據中頻繁出現,要么在數據集中的其他照片中明顯突出。根據弗洛里安-特拉梅爾的說法,那些不常見的名字或外表的人更有可能被”記住”。
研究人員表示,擴散式人工智能模型是最不隱私的一種圖像生成模型。與生成對抗網絡(GANs),一類較早的圖片模型相比,它們洩露的訓練數據是前者的兩倍多。這項研究的目的是提醒開發者註意與擴散模型相關的隱私風險,其中包括各種擔憂,如濫用和復制受版權保護的敏感私人數據(包括醫療圖像)的可能性,以及在訓練數據容易被提取的情況下易受外部攻擊。研究人員建議的修復方法是識別訓練集中重複生成的照片,並從數據收集中刪除它們。