科學家揭示為什麼使用ChatGPT 給朋友發消息不是個好主意
最新研究表明,使用人工智能工具給朋友撰寫信息可能不是最好的選擇,尤其是當朋友得知人工智能參與其中時。研究顯示,與手動撰寫信息的朋友相比,參與者認為使用人工智能撰寫信息的虛構朋友顯得不那麼真誠。
這項研究的主要作者、俄亥俄州立大學傳播學助理教授劉冰潔(Bingjie Liu)表示,這種看法或許可以理解,但其影響卻不僅僅局限於信息的內容。
劉冰潔說:”在收到人工智能輔助信息後,人們會對自己與朋友的關係感到不太滿意,並對自己的立場感到更加不確定。”
但為了對人工智能公平起見,讓人們反感的不僅僅是技術的使用。研究還發現,當人們得知他們的朋友在寫信息時得到了他人的幫助時,也會產生負面影響。人們希望自己的伴侶或朋友在沒有人工智能或其他人幫助的情況下,自己努力寫出信息。
這項研究最近在線發表在《社會與個人關係雜誌》上。
劉說,隨著像ChatGPT 這樣的人工智能聊天機器人越來越受歡迎,如何使用它們的問題將變得更加相關和復雜。這項研究有208名成年人在線參與。參與者被告知他們與一個叫泰勒的人是多年的好朋友。他們被告知有三種情況: 他們正在經歷職業倦怠,需要支持;他們正在與同事發生衝突,需要建議;或者他們的生日快到了。
然後,參與者被告知在電腦屏幕上的文本框中給泰勒寫一條簡短的信息,描述他們當前的處境。
所有參與者都被告知泰勒會給他們發送回复。在這些情景中,泰勒寫了一個初稿。一些參與者被告知泰勒有一個人工智能係統來幫助修改信息以達到合適的語氣,另一些參與者被告知有一個寫作社區的成員來幫助修改,第三組參與者被告知泰勒對信息進行了所有的修改。
在每種情況下,參與研究的人對泰勒的回复都有相同的評價,包括”考慮周到”。不過,參與研究的人對他們所謂收到的泰勒的信息還是有不同的看法。那些收到人工智能幫助回复的人認為泰勒所做的事情比那些收到只有泰勒自己寫的回复的人更不恰當、更不妥當。
人工智能回復還導致參與者對他們之間的關係表示不太滿意,比如對泰勒在滿足”我作為親密朋友的需求”方面的評分較低。此外,在研究中,如果收到人工智能輔助回复的人對他們與泰勒的關係更不確定,對”泰勒喜歡我這個親密朋友”這句話更不確定。
人們不喜歡人工智能輔助回复的一個可能原因是,人們認為使用技術來製作這樣的個人信息是不恰當的,不如人類。但結果顯示,人們對泰勒讓另一個人類–一個在線寫作社區的成員–來幫助撰寫信息的回復同樣做出了負面回應。
研究發現,人們認為朋友不應該使用任何第三方–人工智能或其他人類–來幫助維持他們之間的關係。原因在於參與者認為泰勒依靠人工智能或其他人來幫助撰寫信息,在他們的關係上花費的精力較少。
參與者對泰勒使用人工智能或其他人的努力評價越低,他們對兩人關係的滿意度就越低,對友誼的不確定性就越大。
劉說:”努力在一段關係中非常重要。人們想知道你願意為你們的友誼投入多少,如果他們覺得你利用人工智能來幫忙是在走捷徑,那就不好了。”
當然,大多數人不會告訴朋友他們使用了人工智能來幫助製作信息,但她指出,隨著ChatGPT 和其他服務越來越受歡迎,人們在閱讀朋友和其他人的信息時,可能會開始在腦海中進行圖靈測試。”圖靈測試”一詞有時被用來指人們想知道自己是否能分辨出某個動作是由計算機還是人做出的。
人們可能會偷偷在腦海中進行這種圖靈測試,試圖找出信息中是否有人工智能的成分。這可能會傷害人際關係。
答案就是在人際關係中做好自己的工作,她說。”不要因為方便就使用技術。真誠和真實在人際關係中仍然非常重要。”