史丹佛大學研究稱兩小時的面試足以讓AI準確複製你的個性
人工智慧已經展現出非凡的能力,但光是經過兩個小時的面試,它就能複製出一個人的全部性格嗎? 研究人員認為,答案是肯定的。 然而,這種進步引發了嚴重的倫理問題和對潛在濫用的擔憂。
Google和史丹佛大學的研究人員已經證明,只需與人工智慧模型進行兩小時的對話,就能創造出驚人且準確的個人人格複製品。 研究報告於11 月15 日發表在預印本資料庫arXiv 上,介紹了”模擬代理”–一種旨在精確模仿人類行為的人工智慧模型。
這項研究由史丹佛大學電腦科學博士生Joon Sung Park 領導,對1052 名參與者進行了深入訪談。 這些訪談涉及個人故事、價值觀和對社會問題的看法,形成了用於訓練人工智慧生成模型的資料集。 參與訪談者的年齡、性別、種族、地區、教育程度和政治意識形態都有意保持多樣化,以確保人類經驗的廣泛代表性。
為了評估準確性,參與者完成了兩輪性格測驗、社會調查和邏輯遊戲,並在間隔兩週後重複這個過程。 然後,人工智慧複製品也進行了同樣的測試,與人類對應物的反應如出一轍,準確率達到了驚人的85%。
帕克告訴《麻省理工科技評論》說:”如果你能讓一群小’你’跑來跑去,並真正做出你會做出的決定–我認為,這最終就是未來。”
研究人員設想,這些人工智慧模型可以在受控環境中模擬人類行為,從而徹底改變研究工作。 其應用範圍可以從評估公共衛生政策到衡量對社會事件或產品發布的反應。 他們認為,這種模擬提供了一種測試幹預措施和理論的方法,而無需考慮使用人類參與者在倫理和後勤方面的複雜性。
然而,我們應該對這些研究結果持健康的懷疑態度。 雖然人工智慧克隆體在複製個人調查和社會態度方面表現出色,但在預測互動經濟決策遊戲中的行為方面卻明顯不夠準確。 這種差異凸顯了人工智慧在執行需要理解複雜社會動態和情境細微差別的任務時所面臨的挑戰。
用於測試人工智慧代理準確性的評估方法也相對初級。 社會總體調查和五大性格特徵評估等工具雖然是社會科學研究的標準工具,但可能無法完全捕捉人類性格和行為的複雜層面。
倫理問題使該技術的影響更加複雜。 在人工智慧和”深度偽造”技術已被用於操縱和欺騙的時代,引入高度個性化的人工智慧複製品引起了人們的警惕。 這種工具有可能被武器化,擴大隱私和信任的風險。
麻省理工學院史隆管理學院(MIT Sloan School of Management)副教授約翰-霍頓(John Horton)指出,儘管有這些保留意見,但這項研究為未來研究帶來了令人信服的可能性。他說:”這篇論文展示瞭如何實現一種混合:使用真人生成角色,然後以真人無法實現的方式透過程式設計/模擬使用這些角色。”
訪談過程在捕捉個體細微差別的效率尤其引人注目。 Park 借鑒自己在播客訪談中的經驗,強調了兩小時的談話所能提供的深刻見解。
這項創新引起了已經在開發數位孿生技術的公司的興趣。 Tavus公司(專門從事利用客戶資料創建人工智慧複製品的公司)執行長哈桑-拉扎(Hassaan Raza)對這種簡化方法表示了極大的熱情。 “今天跟人工智慧面試官談30 分鐘,明天再談30 分鐘,怎麼樣? 然後我們用它來構建你的數位孿生體。”