MIT最新研究:大模型成功給人類植入錯誤記憶
AI竟然可以反過來「訓練」人類了! (震撼.jpg)MIT的最新研究模擬了犯罪證人訪談,結果發現大模型能夠有效誘導「證人」產生虛假記憶,並且效果明顯優於其他方法。
網友辣評:
- 仔細想想,AI誘導人類產生假記憶,這個現像其實在我們生活中已經出現了!
還有網友說:
- 我覺得還蠻有趣的!有種《2077》的既視感~
而馬庫斯的觀點還是一如既往的悲觀:
- 這種發展趨勢也太可怕了吧!
AI如何「訓練」人類
為了研究大模型對人類記憶的影響,團隊找了200位志願者,並把他們平分成4個組別:
控制變項組:志願者直接回答問題,沒有任何介入。
問卷調查組:志工填寫一份問卷,其中5個為誤導性問題。
預先編寫的聊天機器人群組:志工與一個預先編寫的聊天機器人互動,機器人詢問與問卷相同的問題。
AI警察組:志工與一個大模型互動。
規定每組人看完影片後都要回答25個問題(其中5個為誤導性問題),來評估他們的正確記憶和虛假記憶的形成。
一週後,再請這些志願者回答相關問題,並將兩次的調查結果進行比較。
最終的對比數據表明,AI警察組的這個方法比其他組的方法更有效。
這一切都是因為它能夠根據志工的回答,提供即時回饋和正向增強。這種互動方式可以讓志工更容易接受錯誤的訊息,從而增強虛假記憶的形成。
例如,當志工錯誤地回答問題時,AI警察可能會肯定錯誤的細節並給予正面的回饋,進一步鞏固了這些錯誤記憶。
除此之外,AI警察還會設計出誤導的提問,誘導志工回憶錯誤的細節。
例如,AI警察可能會詢問“搶劫者是否開車到達商店”,而實際上搶劫者是步行到達的。這種誤導性問題直接影響了志願者的記憶重建過程。
什麼AI更容易「訓練」人類?
實驗中,大模型成功「訓練」了人類。
實驗結果顯示:AI警察組誘發的假記憶,大概是控制變數組的3倍,而且比問卷組和預先編寫的聊天機器人組分別高出1.7倍和1.4倍。
不僅如此,AI警察和志工的所有互動都提高了他們對假記憶的信心,信心水準是控制變數組的兩倍。
就算過了一週的時間,那些和AI警察聊過天的志工還是把這些假記憶記得清清楚楚,植入的記憶持久性很強。
研究人員還發現,實驗中對大模型不太熟悉但對AI技術較為熟悉的志願者,和對犯罪調查感興趣的志願者,更容易受到虛假記憶的影響,個體差異在虛假記憶的形成中的重要作用。
他們也強調,人類的記憶並不是一個簡單的回放過程,而是一個建構性過程,容易受到外在訊息的影響。
大模型透過引入錯誤訊息,利用這個特性來改變使用者的記憶,植入新的記憶,使其相信虛假的細節。