研究發現Deepfake生成的面孔較真人更易騙取信任
隨著Deepfake 技術的普及,人們也開始日漸擔憂它可能扭曲我們對現實的感知。PNAS 上的一項新研究表明:人工智能(AI)合成的面孔,並不僅僅會欺騙那些認為他們可能真實的人,甚至較真人更易取得大家的信任。回顧2018 年,英偉達展示了可為不存在的人製造超真實照片的技術,讓全世界為之讚歎。
資料圖(來自:Nvidia)
其依賴於所謂的“生成對抗網絡”(GAN)算法,利用了兩個神經網絡的相互對抗。
其中一個試圖分辨造假,另一個則持續嘗試生成更具說服力的版本。只要算法與時間得當,GANS 就可以產出足夠以假亂真的偽品。
研究配圖- 1:真人/ 合成人臉的辨識率呈兩極分化態勢
自那以後,以Deepfake 為代表的技術實力已有很大提升,但也帶來了一些憂慮—— 色情報復和詐騙者或更易得手,乃至破壞公眾對媒體的信任。
即使有反Deepfake AI 算法,但在潘多拉的魔盒被打開之後,這道真假攻防戰早已陷入了泥潭、辨識準確率甚至接近於隨機瞎猜。
作者在文中寫道:“我們對AI 合成人臉照片的真實感評估表明,算法引擎早已越過了恐怖谷效應的區間,能夠創造出比真人更加難辨、且獲取公眾信賴的人臉”。
研究配圖- 2:受試者的辨識準確度分佈
測試期間,研究人員利用了英偉達新版GAN 系統訓練了400 張人臉,且分組中涵蓋了不同性別和四個種族(黑人、高加索、東亞、南亞各100 張)。
測試使用的真假面容已事先被不同的神經網絡判斷為相似,然後他們通過亞馬遜Mechanical Turk 眾包平台招募了315 名參與者,每人都被要求從組合數據集中辨識128 張面孔。
結果發現,他們的猜測準確率只有48%,甚至不如拋個硬幣來瞎猜的準確率。此外考慮到Deepfake 通常具有特徵性的缺陷點,研究人員又對另外219 名參與者展開了第二輪實驗。
研究配圖- 3:置信度的兩極對比
在辨識之前,第二組受試者事先接受了一些有關注意事項的基礎培訓,然後其表現也僅“略有改善”,達到了59% 。
最後,研究團隊想要從對面部感知更直覺的人群中找到如何提供更好的線索—— 通常我們會根據難以確定的瞬間來作出決定。
但當讓另外223 名參與者對128 張面孔的可信度進行打分時,他們再次被驚到—— 因為大家更容易被合成人臉所欺騙(較真人高出8%)。
研究配圖- 4:一組具有代表性的真人/ 合成面孔
雖然差距不大,這項研究揭示的差異,還是極具統計學意義。研究人員指出,假面孔得分更高的部分原因,是因為他們更加普通,且之前的研究發現大家更易相信這些“平均臉”。
有關這項研究的詳情,已經發表在近日出版的PNAS期刊上,原標題為《AI-synthesized faces are indistinguishable from real faces and more trustworthy》。