人工智慧的欺騙性現實主義:更逼真的白人面孔
根據倫敦大學洛杉磯分校(UCL)一名學者共同撰寫的新研究報告,人工智慧(AI)生成的白人面孔現在看起來比人類面孔更真實。在這項由澳洲國立大學研究人員領導並發表在《心理科學》(Psychological Science)上的研究中,更多的人認為人工智慧生成的面孔比真人的面孔更像人類。
共同作者伊娃-克魯姆胡貝爾博士(UCL 心理學與語言科學)說:「人工智慧已經達到了驚人的逼真程度,在這裡我們發現,有時它甚至看起來比現實更真實–超逼真–因此我們很容易被騙,以為人工智慧生成的人臉是真實的。”
在這項研究中,研究人員向124位參與者展示了不同的白人臉孔圖像,要求他們判斷臉孔是真實的還是由StyleGAN2演算法產生的。對於人工智慧人臉,參與者有三分之二的時間判斷它們是真實的–比真實人臉更常見。
種族偏見與人工智慧面孔的認知
然而,在其他使用相同演算法、包含不同種族人臉的研究中卻沒有發現這種模式。造成這種差異的原因是,人工智慧演算法往往是在白人面孔上進行過多的訓練。
該研究的主要作者艾米-道爾博士(澳洲國立大學)說:「如果人工智慧的白人面孔一直被認為更逼真,那麼這項技術最終會在網路上強化種族偏見,從而對有色人種產生嚴重影響。」這個問題在目前用於製作專業形象頭像的人工智慧技術中已經很明顯。當用於有色人種時,人工智慧會將他們的膚色和眼睛顏色修改為白人的顏色”。
這張圖片是由Midjourney V5.2 產生的。
人工智慧的過度現實主義及其後果
研究人員發現,人工智慧”超逼真”的問題之一是,人們往往意識不到自己被愚弄了。
研究報告的共同作者、澳洲國立大學博士生伊麗莎白-米勒(Elizabeth Miller)說:”令人擔憂的是,認為人工智慧人臉最真實的人往往最自信他們的判斷是正確的。這意味著,把人工智慧冒充者誤認為真人的人並不知道自己上當受騙了。”
研究人員也發現了人工智慧人臉騙人的原因。
克魯姆胡貝爾博士說:「在過去,人工面孔和類人面孔之間經常會出現不一致,從而產生不可思議谷效應。特別是眼睛(即折射、陰影)會洩漏人臉是真實還是人造的線索。現在看來,我們已經克服了靜態影像的谷效應”。
道爾博士補充說:”事實證明,人工智慧和人類的臉部仍然存在物理差異,但人們往往會誤解這些差異。例如,白色的人工智慧人臉往往更不相稱,人們會誤認為這是人類的標誌。然而,我們不能長期依賴這些物理線索。人工智慧技術正在飛速發展,人工智慧與人類面孔之間的差異可能很快就會消失。”
對錯誤訊息和身分盜竊的影響
研究人員認為,這一趨勢可能會對錯誤訊息和身分盜竊的擴散產生嚴重影響,因此需要採取行動。
道爾博士說:”人工智慧技術不能被割裂開來,只有科技公司才知道背後發生了什麼。需要提高人工智慧的透明度,這樣研究人員和民間社會才能在問題變成大問題之前發現它們。”
研究人員認為,提高公眾意識也能在降低技術風險方面發揮重要作用。
克魯姆胡貝爾博士在倫敦大學洛杉磯分校從事研究和教學工作,探索新興技術背後的社會認知和情感過程及其對人類心靈的影響:”鑑於人類已經無法識別人工智能的面孔,社會需要能夠準確識別人工智慧冒名頂替者的工具。”
道爾博士總結道:「教育人們認識人工智慧人臉的可感知真實性,有助於讓大眾對他們在網路上看到的圖像產生適當的懷疑」。
參考文獻:AI Hyperrealism: Elizabeth J. Miller、Ben A. Steward、Zak Witkower、Clare AM Sutherland、Eva G. Krumhuber 和Amy Dawel,《心理科學》,2023 年11 月12 日。
doi: 10.1177/09567976231207095
編譯來源:ScitechDaily