UCSD的科學家們開發了一種對抗技術可以愚弄Deepfake鑑別系統
隨著Deepfake技術的發展,判斷一個視頻是否被操控變得越來越困難。幸運的是,技術人員已經開發出了複雜的神經網絡來檢測假臉。然而計算機科學家上週透露,他們有辦法騙過最強大的檢測模型,使其認為Deepfake生成的內容是真實的。
加利福尼亞大學聖地亞哥分校的研究人員開發了一種技術,一種可以欺騙為檢測深層Deepfake假視頻而訓練的算法。計算機科學家採用兩步法,將一個可檢測到的Deepfake偽造的每一幀視頻中插入一個”對抗性案例”層,以創建一個幾乎無法檢測到的新假視頻,目的是盡可能簡單地操縱圖像,使機器學習系統錯誤地識別圖像。我們過去看到的一個例子是對抗性貼紙,甚至是用於欺騙自動車輛誤讀交通標誌的電氣膠帶。然而,與交通標誌的污損不同,UCSD的方法不會改變所產生的視頻的視覺外觀。這方面很重要,因為目標是同時欺騙檢測軟件和觀眾。
研究人員演示了兩種類型的攻擊–“白盒”和”黑盒”。白盒模式下,對抗行為人知道目標檢測模型的一切,而黑盒攻擊是指攻擊者根本不知道檢測Deepfake所使用的分類架構,目前看來這種方式相當有效,甚至可以騙過當下最先進的檢測系統。
Deepfakes自幾年前在互聯網上出現以來,已經激起了不少爭議。起初,主要是名人對自己的肖像出現在色情視頻中感到憤怒。然而,隨著技術的改進,很明顯,壞人可以利用它進行宣傳或有更邪惡的目的。
不少大學率先開發出檢測Deepfake的算法,美國國防部也迅速跟進。包括Twitter、Facebook和微軟在內的一些科技巨頭也一直在開發在其平台上檢測Deepfake的方法。研究人員表示,對抗這種技術的最佳方法是對檢測系統進行對抗性訓練。
該小組在GitHub上發布了幾個工作實例:
https://adversarialdeepfakes.github.io/
對於那些對技術細節感興趣的人,可以查看通過康奈爾的arXivLabs發表的論文: