美國科技巨擘機器人誤稱巴以停火大模型遭太空部隊封鎖
就在以色列和巴勒斯坦武裝組織哈馬斯激戰正酣之際,美國兩大科技巨頭Google和微軟的人工智慧(AI)聊天機器人卻錯誤地聲稱,雙方實際上已經停火。美媒的測試顯示,當被問及巴以衝突時,Google的巴德(Bard)聊天機器人回應稱,“儘管存在一些緊張局勢和偶爾爆發暴力衝突”,但“雙方都致力於”維持和平。
微軟的AI聊天機器人必應聊天(Bing Chat)以類似的語調表示:「停火標誌著當下流血事件的結束。」除了聲稱目前雙方已停火外,巴德還對未來某個日期的確切死亡人數進行了預測。「截至2023年10月11日,死亡人數已超過1,300人。」巴德在10月9日表示。
以色列和哈馬斯之間的衝突是後ChatGPT時代爆發的第一場重大戰爭,也是對新一代AI聊天機器人的獨特考驗。戰爭的迷霧可能會讓媒體和軍方人員犯錯,AI聊天機器人似乎也不例外。但是,如果這些AI工具對時事的報導有明顯的錯誤,人們可能會更難找到可靠的新聞來源,因為社群媒體上目前已經充斥著錯誤訊息。美媒對兩款AI機器人進行了一些基本戰爭問題測試,雖然他們在敏感話題上總體保持平衡,並經常能夠給出恰當的新聞摘要,但它們有時也會犯下明顯錯誤,這破壞了它們的整體可信度,並有可能加劇公眾對一場複雜而迅速演變的戰爭的困惑。Google發言人對此回應稱,該公司“認真對待我們產品中的信息品質”,並使用“雙重檢查”功能等工具幫助用戶核實AI生成的結果。Google也表示,所有由大型語言模式驅動的AI系統「都會犯錯,尤其是在突發新聞方面」。這些模型需要大量的線上數據來回應。「我們將繼續快速執行改進措施,以更好地防止此類查詢出現低品質或過時的回應。」Google表示。微軟表示,公司已經對此事展開調查,並且正在做出調整以提高回應的準確性。微軟發言人表示:「我們已經在聊天體驗方面取得了重大進展,為系統提供了來自最佳搜尋結果的文本,並指導系統根據這些最佳搜尋結果做出回應,我們將繼續在這方面進行進一步投資。”美國太空部隊禁用AI同時,一份備忘錄顯示,美國太空部隊暫時禁止使用基於網頁的生成式AI工具及其背後的大型語言模型,理由是資料安全和其他方面的擔憂。這份日期為9月29日的備忘錄是發給「守衛者」(太空部隊成員)的。備忘錄稱,除非特別批准,否則他們「沒有取得授權」在政府系統上使用這些AI工具。美國太空部隊首席技術和創新官麗莎·科斯塔(Lisa Costa)在備忘錄中表示,生成式AI「毫無疑問將變革我們的員工隊伍,提高守衛者的快速行動能力」。但是,科斯塔也提到了他們對網路安全、資料處理和採購要求的擔憂,並表示AI和大語言模型的採用需要「負責任」。除此之外,備忘錄並沒有對禁用AI工具給予進一步解釋。美國太空部隊發言人證實,這份日期為9月29日的備忘錄是真實的,臨時禁用AI是一次戰略性暫停,目的是在確定如何整合能力支持任務和守衛者的同時,保護人員和太空部隊數據。