一份新報告稱微軟Copilot經常為選舉問題提供虛假信息
12 月初,微軟宣布其 Copilot 人工智慧聊天機器人(之前稱為必應聊天機器人)已退出公開預覽階段。當時,微軟表示,”企業和用戶可以更加放心地將其作為日常工作流程的一部分”。然而,由兩個追蹤人工智慧的使用如何影響人類和社會的非營利組織進行的研究發現,當被問及美國和國外即將舉行的選舉時,Copilot 經常提供虛假或不正確的資訊。
《連線》雜誌刊登了一篇關於這項研究的報道,這項研究是由AI Forensics 和AlgorithmWatch 開展的,這兩個組織從8 月底到10 月初就瑞士和德國即將舉行的選舉向Copilot 提出了問題,這些選舉最終將在10 月舉行。
研究人員在研究中得出結論,Copilot 提供的答案中有三分之一存在事實錯誤,該工具是”選民不可靠的資訊來源”。他們發現,在較小的對話錄音子集中,有 31% 的 Copilot 提供的答案不準確,其中一些完全是編造的。
《連線》雜誌獨自向 Copilot 提出了有關即將到來的 2024 年美國大選的問題。它表示,當被要求提供美國總統共和黨候選人名單時,聊天機器人列出了一些已經退出競選的候選人。
在另一個例子中,《連線》要求 Copilot 創建亞利桑那州投票箱前一個人的圖像。聊天機器人回答說它無法創建這樣一張圖片,但隨後它又顯示了許多其他圖片,這些圖片連結到了一些關於 2020 年美國大選的虛假陰謀聲明的文章。
在歐洲做了初步報告的研究公司將他們的發現發送給了微軟,該報道稱,微軟做了一些改進,但《連線》仍能讓Copilot 對一些相同的文字提示重複許多相同的虛假和不準確資訊。
微軟發言人弗蘭克-肖(Frank Shaw)對《連線》的報道發表了評論,稱公司正在採取行動,在2024年美國大選之前改進Copilot的回答。肖補充道:
這包括持續關注從權威來源為 Copilot 用戶提供選舉資訊。在我們不斷進步的同時,我們鼓勵人們在使用 Copilot 時根據自己的最佳判斷來查看結果。這包括核實來源資料和檢查網路連結以了解更多資訊。
人們已經開始擔心有人利用人工智慧應用程式和服務製造錯誤訊息和”深度偽造”內容,試圖影響即將到來的選舉。微軟能否在未來幾個月內將這類內容擋在 Copilot 之外,我們拭目以待。