與AI談戀愛有風險OpenAI警告用戶高階語音模式會影響人際關係
在7月底,OpenAI推出了ChatGPT高級語音模式,其功能讓用戶感到震驚。而在周四發布的一份安全審查報告中,該公司承認,這種擬人化的聲音可能會使一些用戶產生情感上的依戀,從而影響正常的人際關係。
根據OpenAI先前介紹,高階語音模式能提供更自然的即時對話,聽起來極為逼真,它允許用戶隨時打斷,並能感知和回應用戶的情緒。即時回應和可打斷對話是目前語音助理公認的技術困難。
OpenAI在今年5月推出了新版本大模型GPT-4o,同時也展現了語音模式。該公司原定於6月底開始逐步向用戶開放語音模式,但最終決定延後至7月發布。目前,僅開放部分ChatGPT Plus用戶。
在OpenAI發布高級語音模式時,它被視為2013年電影《她》中與主人公談戀愛的AI助理,但當AI承認“她”還與數百名其他用戶有戀愛關係時,主人公陷入了崩潰。
在經典科幻片《銀翼殺手2049》中,上演了幾乎同樣的場景,AI虛擬人成為了主角的女友,當主角看到虛擬女友以同樣的形態被售賣時,令人羨慕的真摯愛情瞬間化為烏有。
現在,OpenAI顯然擔心上述虛構的故事成為現實,它觀察到高階語音模式成為了使用者表達情感的工具。 “用戶可能會與AI建立社交關係,減少他們對人類互動的需求,這可能有利於孤獨的人,但可能會影響健康的人際關係。”
OpenAI指出,從一個聽起來像人類的聊天機器人那裡聽到的訊息,可能會導致用戶過於信任這個工具,但AI有犯錯的傾向,這也會造成問題。
安全審查報告也提到,科技公司正在競相迅速向大眾推出AI工具,他們說這些工具可能會顛覆人類生活、工作、社交和尋找資訊的方式。但在人們真正理解這些意義之前,他們就已經這麼做了,但這往往會帶來意想不到的後果。
倫理挑戰
有些人已經開始與AI聊天機器人建立所謂的戀愛關係,這引起了情感專家的擔憂。
亞利桑那州立大學研究技術和人類交流的教授Liesel Sharabi表示,科技公司在處理與科技相關的道德和責任問題上承擔了巨大的責任,而且目前這一切都還處於試驗階段。她擔心的是,人們可能會與那些可能長期存在不了、且不斷演變的技術形成非常深厚的連結。
OpenAI認為,隨著時間的推移,使用者與ChatGPT語音模式的互動也可能影響社交中的正常行為。 “我們的模型是尊重用戶的,允許用戶隨時打斷並’接管麥克風’,這雖然對於AI來說是預期中的行為,但在人類互動中卻是違反社交規範的,至少有些失禮。”
目前,OpenAI稱致力於「安全地」建構AI助手,並計劃繼續研究和解決用戶對其工具「情感依賴」的可能性。
OpenAI並不是唯一一家認識到AI助理模仿人類互動的風險的公司。今年4月,GoogleDeepMind發表了一篇長篇論文,討論了更有能力的AI助理可能帶來的倫理挑戰。