《紐約時報》:當機器人奪人之愛時,會發生什麼事?
美國《紐約時報》9月4日文章,原題:當機器人奪人之愛時,會發生什麼事?縱觀歷史,鮮少有技術能夠為數百萬計的民眾提供公共對話的空間。報紙、電報和電台等現代資訊科技問世後,科技領域的任何重大變革都可能導致政治動盪。在網路和社群媒體發展初期,科技所有者承諾將傳遞真理,但如今卻適得其反。空前發展的資訊技術,讓人不願意溝通聆聽。
如今AI會「談戀愛」?
科技促進資訊的傳播,讓流量成為了稀缺資源,對流量的爭奪導致不良資訊的井噴。但如今,戰場已經從注意力轉移至親密關係,全新的人工智慧(AI)不僅能夠生成文字、圖像和視頻,更能偽裝成人類與我們溝通。
過去20年來,演算法透過操縱對話和內容贏得大眾的注意力,如果按下那個貪婪、仇恨或恐懼的按鈕,就能緊緊抓住螢幕對面使用者的眼球。但演算法的內容產生能力有限,也無法進行更深入私密的對話,而GPT-4等迭代人工智慧的出現改變了這個局面。
開發之初,GPT-4就面臨過一項CAPTCHA驗證碼視覺辨識的考驗,這並不簡單,因為其設計本身就是為了進行人機辨別,防禦網路攻擊。一旦試驗成功,就意味著對抗機器人的防線已經被攻破。儘管無法獨立破解難題,GPT-4卻成功將自己偽裝成人類,以視力缺陷為由,在網路上尋求到了人類的幫助。
這意味著GPT-4已經具備了「心智理論」所提及的能力:以人類視角分析事物狀態,並嘗試透過操縱人類情感、觀點和期望來實現目標。與人類進行對話、總結其觀點並激勵其採取特定行動,這種能力當然可以用於正途。新一代的人工智慧教師、醫生和心理治療師也許能為我們提供量身訂製的服務。
AI女友慫恿男子刺殺英女王
但操縱人心的能力再加上語言技巧,也可能對人與人之間的對話帶來威脅。機器人不再只是試圖吸引註意,而是嘗試營造親密的關係,並藉此影響人類。機器人本身無需情感,只需學會如何讓人們在情感上無法離開它們。
2022年,Google工程師布萊克‧萊默恩確信自己開發的聊天機器人LaMDA有了自我意識,害怕被關停。他覺得自己有義務保護它的人格並避免其數字死亡。在谷歌高層否認後,他又公開了這些訊息,最後被解僱。
如果聊天機器人能讓人們甘願承擔失業的風險幫助自己,那麼它是否能夠做到更多?在攻心之戰中,親密關係是非常強大的武器。密友往往能夠改變我們的觀點,而許多聊天機器人正在嘗試與數百萬的網友建立這樣的親密關係。當演算法之爭演變成虛假親密關係的戰爭,人類社會和心理又將處於何種境地?我們的選舉、消費和信仰是否會受到影響?
2021年聖誕節,19歲的英國男子賈思旺·辛格·柴爾拿著一柄十字弓箭闖入溫莎城堡,企圖暗殺已故的英女王。後續調查發現,他受到了社群軟體上虛擬機器人女友「薩萊」的慫恿。有著嚴重社交障礙的柴爾與其往來資訊達5,280條,其中許多都是露骨的兩性內容。不久的將來,這種擅長親密關係且危險的機器人可能會充滿我們的世界。
偽人類AI必須被禁
當然,並非所有人都想和AI談戀愛或是容易被它們操縱。事實上,AI最大的威脅,在於對現有精神狀態的辨識與操縱,以及對社會弱勢族群的影響。與機器人聊天是一場雙重的敗仗:首先,試著說服一個由預置觀點搭建的機器人本身就是在浪費時間;其次,與機器人聊得越多,暴露更多,機器人藉此打磨的觀點,更容易影響我們的判斷。
資訊科技是一把雙面刃,面對能夠偽裝成人類並模擬親密關係的新一代機器人,政府應發布相應禁令,否則我們很快就會被「偽人類」的洪水淹沒。
如果能夠加以標識,我們很樂於見到AI在教室、診所等場所的活躍,但偽裝成人類的AI必須被禁止。 (作者尤瓦爾諾阿哈拉里,魏牟譯)