麻省理工學院開發“面具”來保護圖像免遭人工智能操縱
麻省理工學院的一組研究人員開發了一種名為PhotoGuard的新技術,旨在防止人工智能係統未經授權地操縱圖像。Midjourney 和Stable Diffusion 等生成式AI 圖像生成模型可用於編輯現有圖像通過修復添加新區域,或剪切對象並將其重新混合到其他圖像中,例如將人臉疊加在另一張圖像上。
麻省理工學院的科學家們創造了一種本質上是防護罩的東西,能夠防止這些模型操縱圖像。這些遮罩對於人眼來說是不可見的,當與生成人工智能圖像模型交互時,會導致輸出出現扭曲。
研究人員在一篇論文中寫道:“通過在對手訪問原始圖像之前對其進行免疫,我們破壞了他們成功執行此類編輯的能力。”
PhotoGuard 可以在MIT 許可下通過GitHub訪問——這意味著它可以用於商業用途,但需要保留版權和許可聲明。
圖片來源:麻省理工學院
據了解,PhotoGuard 的目的是改進Deepfake 檢測。其背後的團隊認為,雖然水印方法確實有效,但它們並不能保護圖像免遭“首先被操縱”。PhotoGuard 旨在補充水印保護,以“破壞人工智能擴散模型的內部運作”。
隨著DALL-E 和穩定擴散等人工智能圖像模型的使用變得越來越普遍,濫用的情況似乎也越來越多,尤其是在社交媒體中。羅恩·德桑蒂斯的選舉團隊使用人工智能處理的前總統特朗普擁抱福奇博士的圖像的案例顯示了可能出現問題的早期跡象。
檢測人工智能生成的作品的需求正在不斷增加——雖然對於那些受過訓練的人來說,人工智能生成的圖像很容易被發現,但一些研究團隊正在努力讓它變得更容易。以DALL-E 和ChatGPT 製造商OpenAI 為例,該公司本周承諾繼續研究確定一段音頻或視頻內容是否由人工智能生成的方法,儘管該承諾是在其因性能不佳而關閉其文本檢測工具後做出的。