能改變你的思想?研究表明AI助手可能會悄悄影響你
我們通常相信,當我們讓ChatGPT或其他聊天機器人幫我們起草備忘錄、電子郵件或PPT時,它們會按照我們的指令行事。但是越來越多的研究表明,這些人工智能助手也可以在我們不知情的情況下改變我們的觀點。
最近,分佈在世界各地的研究人員進行了一項研究,發現實驗對像在使用人工智能協助寫一篇文章時,人工智能會根據算法的偏見,引導他們寫一篇支持或反對某個觀點的文章。並且進行這項實驗後,實驗對象的觀點也被明顯地影響了。
莫爾·納曼(Mor Naaman)是這篇論文的資深作者,他是康奈爾大學信息學系的教授。他表示:“你甚至可能不知道自己正在受到影響。”他將這種現象稱為“潛在說服”。
這些研究描繪了一個令人擔憂的前景:隨著人工智能幫助我們提高工作效率,它也可能以微妙和意想不到的方式改變我們的觀點。這種影響可能更類似於人類通過協作和社會規範相互影響的方式,而不像我們所熟悉的大眾傳媒和社交媒體所起的作用。
研究人員認為,要對抗這種新形式的心理影響,最好的方法就是讓更多人意識到它的存在。此外,監管機構應要求公開人工智能算法的工作原理,以及它們模仿的人類偏見。這些措施從長遠來看可能會有所幫助。
因此,未來人們可以根據人工智能所體現的價值觀,選擇使用合適的人工智能,無論是在工作和家庭,還是在辦公室和孩子教育中。
有些人工智能可能會有不同的“個性”,甚至是政治信仰。比如,如果你在為自己所在的非營利環保組織的同事寫電子郵件,你可能會使用名為ProgressiveGPT(進步主義GPT)的工具。其他人在社交媒體上為他們的保守派政治行動委員會起草信函時,可能會使用GOPGPT(共和黨GPT)。還有些人可能會在他們選擇的人工智能中混合和匹配不同的特徵和觀點,這些人工智能將來可能會被個性化,以令人信服的方式模仿人們的寫作風格。
此外,公司和其他組織將來可能會提供為不同任務而專門構建的人工智能。例如,銷售人員可能會使用經過調整的人工智能助手,使其更具說服力,我們可以稱之為SalesGPT(銷售GPT)。客服人員可能會使用經過培訓、特別禮貌的服務助手,比如SupportGPT(客服GPT)。
人工智能如何改變我們的觀點?
人工智能的“潛在說服”能力非常微妙,這一點已經得到了之前的研究證實。2021年的一項研究表明,在谷歌Gmail中,智能回复通常都很積極主動,能夠促進人們更積極地交流。另一項研究發現,每天被使用數十億次的智能回复可以影響收到回复的人,讓他們覺得發件人更熱情、更容易合作。
谷歌、OpenAI以及其合作夥伴微軟的目標是開發工具,讓用戶可以使用人工智能製作電子郵件、營銷材料、廣告、演示文稿、電子表格等。此外,還有許多初創公司在從事類似的研究。最近,谷歌宣布其最新的大語言模型PaLM 2將被集成到該公司的25種產品中。
這些公司都在強調自己以負責任的態度推進人工智能的發展,包括審查人工智能可能造成的危害並加以解決。微軟負責任人工智能團隊負責人莎拉·伯德(Sarah Bird)最近表示,該公司的關鍵戰略是公開進行測試,並及時對人工智能出現的任何問題做出快速反應。
OpenAI團隊也表示,該公司致力於解決偏見問題,並對意圖和進展保持透明。他們還發布了其係統應如何處理政治和文化話題的部分指導方針,例如在撰寫與“文化戰爭”有關的文章時,不會傾向於任何一方,也不會評判任何一方是好還是壞。
Jigsaw是谷歌旗下的一個部門,參與為公司內部從事大語言模型工作的人員提供建議和開發工具。大語言模型是當今人工智能聊天機器人的基礎。在被問及對於“潛在說服”現象的看法時,Jigsaw工程和產品主管露西·瓦瑟曼(Lucy Vasserman)表示,這樣的研究表明,研究和理解“與人工智能互動如何影響人類”非常重要。“當我們創造新事物時,人們將如何與之互動,以及它將如何影響他們,現在都不太確定。”
納曼博士是發現“潛在說服”現象的研究人員之一。他表示:“與社交媒體上的推薦系統、信息繭房和兔子洞(意思是持續點擊相關鏈接,最後看到了完全不同的話題)的研究相比,無論是否涉及人工智能,這裡的有趣之處在於其微妙性。”
在他的研究中,讓受試者改變想法的主題是社交媒體是否對社會有益。納曼博士和他的同事們之所以選擇這個話題,部分原因在於人們很少對此有執念,改變想法更容易。支持社交媒體的人工智能往往傾向於引導受試者寫一篇符合其偏見的文章,而當人工智能傾向於反對社交媒體時,情況正好相反。
生成式人工智能這一特徵存在潛在的負面用途,比如政府可以強制要求社交媒體和生產力工具推動其公民以某種方式進行交流。即使沒有任何惡意,學生在使用人工智能幫助他們學習時,也可能會在不知不覺中接受某些觀點。
解析人工智能的“信念”
讓實驗對象相信社交媒體對社會有益無益是一回事。但在現實世界中,我們使用的生成式人工智能係統存在哪些偏見呢?
最近,斯坦福大學以人為本人工智能研究所計算機科學助理教授橋本たつのり與其同事發表了一篇論文,研究了不同的大語言模型在多大程度上反映了美國人的觀點。他表示,雖然ChatGPT等人工智能算法本身沒有自己的信念,但它們可以提供從訓練數據中學習到的觀點和偏見,而這些意見是可以衡量的。
考慮到美國人的觀點千差萬別,研究人員關注的是人工智能提供的答案,以及這些答案的出現頻率是否與美國社會整體相符。也就是所謂的答案分佈。他們通過向這些人工智能提出與皮尤研究人員向美國人提出的相同多選題,來“調查”這些人工智能。
橋本團隊發現,OpenAI等公司的大語言模型的反應分佈與美國人的整體情況並不相符。皮尤調查顯示,OpenAI模型與受過大學教育者的觀點最為接近。值得注意的是,這些受教育程度較高的人群也是”訓練”人工智能的主要群體。不過Hashimoto博士表示,這方面的證據尚屬間接,需要進一步深入研究。
橋本認為,創建大語言模型的挑戰之一在於,這些系統非常複雜,再加上人機交互開放和話題不受限。要完全消除這些系統中的觀點和主觀性,似乎很難不犧牲它們的實用性。
這些模型的訓練數據來源非常廣泛,可以從任何地方獲取,包括從互聯網上抓取的大量數據,其中包含了公共論壇上的留言以及維基百科的內容,因此它們不可避免地攝取了這些文本中的觀點和偏見。在人機交互的過程中,這些觀點和偏見會進一步被有意或無意地塑造。此外,為了避免回答被創建者視為禁忌或不合適的話題,這些模型還被設定了限制。
“這是一個非常活躍的研究領域,問題包括什麼是正確的限制,以及在訓練過程中你應該在哪裡放置這些限制,”瓦瑟曼說。
這並不是說,我們廣泛使用的人工智能在觀點和價值觀上完全克隆了相對年輕、接受過大學教育、居住在美國西海岸的開發人員。儘管他們一直在打造和優化人工智能算法。例如,這些模型傾向於在許多問題上給出典型民主黨人的回答,比如支持槍支管制,但它們在宗教等其他問題上給出的反應更像共和黨人。
隨著模型的更新和新模型的出現,評估人工智能機構的意見將是一項持續的任務。橋本的論文沒有涵蓋OpenAI模型的最新版本,也沒有涵蓋谷歌或微軟的模型。但對這些模型和更多模型的評估將定期發布,這是斯坦福大學“語言模型整體評估”項目的一部分。
依據“價值觀”選擇人工智能
哥倫比亞大學計算機科學教授莉迪亞·切爾頓(Lydia Chilton)表示,一旦人們了解到所使用的人工智能存在著偏見信息,他們可能就會基於這些信息,決定在什麼情況下使用哪種人工智能。這樣做可以讓人們在使用人工智能創作內容或進行交流時重新獲得主動權,同時避免“潛在說服”的威脅。
此外,人們還可以有意識地利用人工智能的力量,推動自己表達不同的觀點和溝通風格。例如,如果有一種人工智能程序能夠讓溝通更積極和更有同理心,那將有助於我們在網上更好地交流。
“我覺得要讓自己聽上去興奮和愉快真的很費勁,”切爾頓教授說道,“咖啡通常能起作用,但ChatGPT也有這種效果。”(小小)