研究顯示為人工智慧生成圖像添加浮水印以打擊虛假資訊和深度偽造可能毫無意義
今年7 月,白宮宣布,七家大型科技公司已承諾採取人工智慧安全措施,包括部署浮水印,以確保演算法生成的內容可以與真人作品區分開來。在這些巨頭中,亞馬遜、谷歌和OpenAI 都特別提到了水印技術——即在文本和圖像中添加信息以證明內容出處的技術——作為抵禦其生成式人工智能模型所產生的錯誤信息、欺詐和深度偽造的一種方法。
這樣做的目的是,人工智慧生成的材料將被巧妙地標記,以便在有人試圖將其內容冒充為人類製作的內容時,能夠被檢測和識別出來。
但學者警告說,影像中的數位浮水印——在創建內容時添加噪聲,然後在影像資料集中檢測該噪聲模式的存在——可能並不能提供太多安全保證。
日前來自馬裡蘭大學的研究團隊取得了重大突破,他們制定了一種繞過嵌入在AI 生成圖像中的所有水印保護的方法。在接受Wired 採訪時,計算機科學教授Soheil Feizi 表示,目前沒有可靠的方法可以為AI 生成的圖像加上水印,他的團隊成功地繞過了“所有方法”。
就目前而言,惡意行為者繞過水印仍然太容易。而且,還可以將浮水印添加到手動製作的圖像中,從而觸發誤報。
數位浮水印已被各種AI 公司推崇為一種功能,使用戶能夠知道影像是否是藉助AI 產生的。問題是我們仍然沒有萬無一失、無法被操縱的水印技術。
Feizi 和他的團隊在一份預印本論文中詳細記錄了他們的研究結果。在論文中,研究人員表示,使用微妙的圖像擾動的水印方法可以輕鬆地透過擴散淨化攻擊來破解。
這種方法的工作原理是,在使用AI 生成影像時,會對其應用一種人眼不可見的特定雜訊模式。問題在於,這種模式可以很容易地被修改或移除,而整體影像的變更很小。
同樣,使用大量擾動的水印技術,即對圖像進行重大更改的技術,可以通過易於移除水印的模型替代對抗攻擊來破解。
此外,惡意行為者可以使用浮水印技術來針對真正的藝術家,將他們的圖像標記上會導致它們被錯誤地識別為由AI 產生的模式。這可能會損害藝術家的聲譽。