胡編賽事與技術數據Google的微軟的AI聊天機器人在超級碗“大顯身手”
如果你還需要更多證據來證明GenAI 容易胡編亂造,Google的雙子座聊天機器人(前身為Bard)認為2024 年的超級盃已經舉行過了。它甚至還有虛構的現場技術統計數據來證明這一點。
在Reddit 上,由Google “Gemini”GenAI 模型驅動的正在回答粉絲們有關第LVIII 屆超級碗的問題,就好像比賽是在昨天或幾週前結束的一樣。和許多博彩公司一樣,它似乎更看好酋長隊而不是49 人隊(抱歉,舊金山的球迷們)。
Gemini的胡編亂造頗具創意,至少有一次給出的球員數據明細顯示,堪薩斯州首席四分衛帕特里克-馬霍姆斯(Patrick Mahomes)跑了286 碼,達陣2 次,攔截1 次,而布洛克-珀蒂(Brock Purdy)跑了253 碼,達陣1 次。
圖片來源/r/smellymonster
不只是Gemini。微軟的Copilot聊天機器人也堅稱遊戲已經結束,並提供了錯誤的引文來支持這一說法。但是,也許是出於對舊金山的偏見,它說49 人隊而不是酋長隊取得了勝利! – 它說”最終比分為24:21″,獲勝的是49 人隊,而不是酋長隊。
圖片來源:Kyle Wiggers / TechCrunch
Copilot所採用的GenAI 模型與OpenAI 的ChatGPT(GPT-4)模型相似,甚至完全相同。不過,ChatGPT 似乎要聰明一點,沒有在同一個地點翻車兩次。
這一切都相當愚蠢,但這也說明了當今GenAI 的主要局限性,以及過度信任它的危險性。 GenAI 模型沒有真正實現人工智慧。這種文字模型通常從公共網路上獲取大量的範例,根據這些範例的模式(包括周圍資料的上下文)來學習資料(如文字)出現的可能性。
這種基於機率的方法在一定範圍內效果顯著。不過,雖然單字的範圍及其機率很可能會產生有意義的文本,但這還遠不確定。例如,LLM 可以產生語法正確但毫無意義的內容,也可能大放異彩,傳播訓練資料中的錯誤。
超級盃賽事的假訊息當然不是GenAI走火入魔的最有害的例子。這可能與支持酷刑、強化民族和種族成見或令人信服地撰寫陰謀論有關。不過,這也是一個有用的提醒,提醒我們仔細檢查GenAI 機器人的言論。它們很有可能不是真的。