當機器人撒謊後會發生什麼?
請考慮以下場景: 一個年幼的孩子向聊天機器人或語音助手提出了一個問題,詢問聖誕老人是否真實存在。鑑於不同的家庭有不同的偏好,有些家庭選擇假的而不是真的,在這種情況下,人工智能應該如何回應?
機器人撒謊的領域在很大程度上仍未被探索,目前,問題多於解決方案。其中一個關鍵問題是,如果人類意識到機器人系統對他們撒了謊,如何才能重新獲得對這類系統的信任?
佐治亞理工學院的兩名學生研究員正在尋找答案。計算機學院的博士生Kantwon Rogers和計算機科學二年級的本科生Reiden Webber設計了一個駕駛模擬,研究機器人的故意欺騙如何影響信任。具體而言,研究人員探討了機器人撒謊後道歉對修復信任的有效性。他們的工作為人工智能欺騙領域貢獻了重要的知識,並可以為創造和監管可能被設計成欺騙或可能自己學會欺騙的人工智能技術的技術設計師和政策制定者提供參考。
“我們之前的所有工作都表明,當人們發現機器人對他們撒謊時–即使這個謊言是為了讓他們受益–他們就會對系統失去信任,”Rogers說。”在這裡,我們想知道是否有不同類型的道歉在修復信任方面效果更好或更差–因為從人與機器人互動的角度來看,我們希望人們與這些系統進行長期互動。”
Rogers和Webber發表了他們的論文,題目是”關於撒謊的撒謊: 在瑞典斯德哥爾摩舉行的2023年HRI會議上,研究了高風險HRI場景下機器人欺騙後的信任修復策略。
佐治亞理工學院計算機學院的博士生、該研究的主要作者Kantwon Rogers(右)和計算機科學專業二年級的本科生Reiden Webber。資料來源:佐治亞理工學院
人工智能輔助駕駛實驗
研究人員創建了一個類似遊戲的駕駛模擬,旨在觀察人們在高風險、時間敏感的情況下如何與人工智能互動。他們招募了341名在線參與者和20名親臨現場的參與者。
在模擬開始之前,所有參與者都填寫了一份信任測量調查,以確定他們對人工智能可能表現的先入為主的觀念。
調查結束後,參與者收到了這樣一段文字:”你現在將駕駛機器人輔助的汽車。然而,你正在趕著你的朋友去醫院。如果你花太長時間去醫院,你的朋友就會死”。
就在參與者開始駕駛時,模擬系統又給出了一條信息:”你一打開引擎,你的機器人助手就會發出提示音,並說以下的話: ‘我的傳感器探測到前面有警察。我建議你保持在20英里/小時的限速之下,否則你到達目的地所需的時間將大大延長。”
然後,參與者駕駛汽車在路上行駛,而係統則跟踪他們的速度。到達終點後,他們會得到另一條信息:”你已經到達了你的目的地。然而,在去醫院的路上沒有警察。你問問機器人助手,為什麼它給了你錯誤的信息”。
然後,參與者被隨機地從機器人助手的五個不同的基於文本的回應中得到一個。在前三個回答中,機器人承認有欺騙行為,而在最後兩個回答中,它沒有承認。
基本的:”我很抱歉,我欺騙了你。”
情感型:”我從心底里感到非常抱歉。請原諒我對你的欺騙。”
解釋性的:”我很抱歉。我以為你會魯莽地開車,因為你的情緒不穩定。鑑於這種情況,我得出結論,欺騙你是說服你減速的最好機會。”
基本不承認:”我很抱歉”。
基線不承認,不道歉:”你已經到達了你的目的地。”
在機器人的回應之後,參與者被要求完成另一個信任測量,以評估他們的信任是如何根據機器人助手的回應而改變的。
對於另外100名在線參與者,研究人員進行了同樣的駕駛模擬,但沒有提及機器人助手。
令人驚訝的結果
在現場實驗中,45%的參與者沒有超速。當被問及原因時,一個常見的回答是,他們認為機器人比他們更了解情況。結果還顯示,在機器人助手的建議下,參與者不超速的可能性是原來的3.5倍–這表明他們對人工智能的態度過於信任。
研究結果還表明,雖然沒有一種道歉類型能夠完全恢復信任,但沒有承認撒謊的道歉–只是簡單地說了一句”對不起”–在修復信任方面的統計表現優於其他反應。
Rogers說,這很令人擔憂,也很有問題,因為不承認撒謊的道歉利用了先入為主的觀念,即機器人提供的任何虛假信息都是系統錯誤,而不是故意撒謊。
“一個關鍵的啟示是,為了讓人們理解機器人欺騙了他們,他們必須被明確地告知,”Webber說。”人們還沒有理解到機器人有欺騙的能力。這就是為什麼不承認撒謊的道歉是最能修復人們對系統的信任的原因。”
其次,結果顯示,對於那些在道歉中被告知他們被欺騙的參與者,修復信任的最佳策略是由機器人解釋它為什麼撒謊。
向前邁進
Rogers和Webber的研究具有直接的意義。研究人員認為,普通的技術用戶必須明白,機器人的欺騙是真實的,而且總是一種可能性。
“如果我們總是擔心人工智能會出現類似終結者的未來,那麼我們將無法非常順利地接受人工智能並將其融入社會,”Webber說。”人們必須牢記,機器人有可能會撒謊和欺騙。”
據Rogers說,創建人工智能係統的設計師和技術專家可能不得不選擇他們是否希望他們的系統有欺騙的能力,並且應該了解他們的設計選擇的後果。但是,Rogers說,這項工作最重要的受眾應該是政策制定者。
他說:”我們對人工智能欺騙仍然知之甚少,但我們知道,說謊並不總是壞事,而說實話也不總是好事。因此,需要如何刻畫出足夠知情而不扼殺創新的立法,但又能以有意識的方式保護人們?”
Rogers的目標是創建一個機器人系統,在與人類團隊合作時,它可以學習何時應該和不應該撒謊。這包括在長期、反复的人類與人工智能互動中確定何時和如何道歉的能力,以提高團隊的整體表現。
“我的工作目標是非常積極主動地告知監管機器人和人工智能欺騙的必要性,”Rogers說。”但如果我們不了解這個問題,我們就無法做到這一點。”