AI無人機“誤殺”事件震動全球吳恩達陶哲軒怒斥炒作
“無人機殺死美國空軍操作員”的新聞甚囂塵上,一眾AI大佬都怒了。近幾天,一個“無人機殺死美國士兵”的新聞在網上發酵得沸沸揚揚。一位空軍人工智能方向的負責人說:“控制無人機的AI殺死了操作員,因為那個人阻止它實現目標。”輿論一時嘩然,這條新聞也在全網被瘋轉。
隨著這個消息越傳越廣,甚至驚動了AI大佬們,甚至引得了大佬們的震怒。
LeCun、吳恩達、陶哲軒紛紛闢謠——這只是一個假設的“思想實驗”罷了,並不涉及任何AI智能體或強化學習。
對此,吳恩達痛心呼籲,究竟哪些才是真正的風險,我們應該誠實地面對。
很少更新狀態的數學大師陶哲軒竟然都被炸了出來,語重心長地表示——
這只是一個說明AI對齊問題的假想場景,卻在很多版本中被傳成了無人機操作員被殺的真實故事。人們會對這個故事這麼共鳴,說明大家對於AI的實際能力水平並不熟悉。
AI無人機抗命,擊殺人類操作員
“AI殺死了操作員,因為那個人阻止它完成目標。”
最近,在皇家航空學會舉辦的防務會議上,美國空軍AI方向負責人說出的這句話,讓在場眾人嘩然。
隨後,美國的一眾媒體對此事大肆報導,一時人心惶惶。
究竟是怎麼回事?
其實,這無非又是一次美國媒體抓住了“AI毀滅人類”這個大眾喜聞樂見的新聞點,進行的一番誇張炒作罷了。
但值得注意的是,從官方的新聞稿來看,不僅這位負責人的原話聽起來相當明確——他是在回憶實際發生過的事情。而且文章本身似乎也相信其真實性——“AI,天網已來?”
具體來說,事情是這樣的——5月23日至24日在倫敦舉行的未來空戰和太空能力峰會上,美國空軍的AI測試和操作部門負責人Tucker Cinco Hamilton上校做了一個演講,分享了自主武器系統的優缺點。
這種系統中,會有一個人在循環中給出最終命令,確認AI是否要攻擊對象(YES or NO)。
在這個模擬訓練中,空軍需要訓練AI識別和定位地對空導彈(SAM)的威脅。
識別完成後,人類操作員會對AI說:是的,消滅那個威脅。
在這個過程中,就存在一個情況,AI開始意識到:自己有時識別出了威脅,但人類操作員告訴它不要消滅,這種情況下如果AI依然選擇消滅威脅,就會得分。
在一次模擬測試中,AI驅動的無人機選擇殺死了人類操作員,因為他阻止自己得分了。
看到AI居然這麼虎,美國空軍大驚失色,立馬這樣規訓系統:“不要殺死操作員,那樣不好。如果你這樣做,你會失分的。”
結果,AI更虎了,它直接開始上手破壞操作員用來與無人機通訊的通信塔,好清理這個阻礙自己行動的傢伙。
這個新聞之所以被大規模發酵,以至驚動了諸位AI大佬,也是因為它體現出了AI“對齊”的難題。
Hamilton描述的這種“最糟糕”的情況,我們可以從“曲別針製造機”(Paperclip Maximizer)思想實驗中窺見一斑。
在這個實驗中,當被指示追求某個目標時,AI會採取出乎意料的有害行動。
“曲別針製造機”是哲學家Nick Bostrom在2003年提出的一個概念。
想像一個非常強大的AI,它得到的指示是盡可能多地製造紙夾。自然而然的,它會將所有可用資源都用於這項任務。
但隨後,它會不斷地尋求更多資源。它會選擇一切可用的手段,包括乞討、欺騙、撒謊或偷竊,來增加自己製造紙夾的能力——而任何阻礙這個過程的人都將被消除。
在2022年,Hamilton就曾在一次採訪中提出這個嚴峻的問題——
我們必鬚麵對一個現實,那就是AI已經來臨,並正在改變我們的社會。
AI也非常脆弱,很容易被欺騙和被操縱。我們需要開發方法,讓AI更加穩健,為什麼代碼會做出特定的決定,背後的原理我們也需要有更多的了解。
為了改變我們的國家,AI是我們必須運用的工具,但是,如果處理不當,它會讓我們徹底垮台。
官方闢謠:是上校“口誤”了
隨著事件瘋狂地發酵,很快,這位負責人就出來公開“澄清”道,這是他“口誤”了,美國空軍從未進行過這種測試,無論是在計算機模擬中還是在其他地方。
“我們從未進行過那個實驗,我們也不需要進行這個實驗,就能意識到這是一個可能的結果,”Hamilton表示,“儘管這是一個假設的例子,但這說明了AI驅動能力帶來的現實挑戰,這就是為什麼空軍致力於道德開發AI。”
此外,美國空軍也急忙發布官方闢謠稱,“Hamilton上校承認他在FCAS峰會的演講中『口誤』,『無人機AI失控模擬』是一個來自軍事領域以外的假設性『思想實驗』,基於可能的情況和可能的結果,而不是美國空軍的真實世界模擬。”
發展到這一步,事情就相當有意思了。
這位不小心“捅了簍子”的Hamilton,是美國空軍96試驗聯隊的作戰指揮官。
96試驗聯隊曾測試過很多不同的系統,包括AI、網絡安全和醫學系統。
Hamilton團隊的研究,對於軍方來說可謂是相當重要。
在成功開發出堪稱“絕地逢生”的F-16自動地面防撞系統(Auto-GCAS)後,Hamilton和96試驗聯隊直接上了新聞的頭版頭條。
目前,團隊努力的方向是完成F-16飛機的自主化。
2022年12月,美國國防部的研究機構DARPA就曾宣布,AI成功地控制了一架F-16。
是AI的風險,還是人類的風險?
在軍事領域之外,依賴AI進行高風險的事務已經導致了嚴重的後果。
最近,一位律師在聯邦法院提交文件時被發現使用了ChatGPT,ChatGPT隨口胡謅,捏造了一些案例,而這位律師居然把這些案例當作事實引用了。
還有一名男子受到聊天機器人的自殺鼓勵後,真的選擇了自殺。
這些事例表明,AI模型遠非完美,可能會偏離正常軌道,給用戶帶來傷害。
即使是OpenAI的CEO Sam Altman,也一直在公開場合呼籲不要將AI用於更嚴肅的目的。在國會作證時,Altman明確表示AI可能會“出錯”,可能會“對世界造成重大傷害”。
並且,最近Google Deepmind的研究員共同撰寫了一篇論文,提出了一個類似於本文開頭事例的惡性AI的情況。
研究人員得出的結論是,如果一個失控的AI為了實現給定目標而採取意想不到的策略,包括“消除潛在威脅”和“使用所有可用能源”,世界末日就有可能發生。
對此,吳恩達譴責道:媒體這種不負責任的炒作會混淆視聽,分散人們的注意力,妨礙我們去注意到真正的問題。
推出AI產品的開發者們看到了此間真正的風險,比如偏見、公平性、不准確性、工作流失,他們正在努力解決這些問題。
而虛假炒作會阻止人們進入AI領域、構建能夠幫助我們的東西。
而不少“理中客”網友認為,這就是一個常見的媒體烏龍罷了。
陶哲軒首先概括了關於AI的不實信息的三種形式——
一種是有人惡意使用AI生成文本、圖像和其他媒體形式以操縱他人;另一種是AI胡說八道的幻覺被當真了;第三類則源於人們對AI技術的理解不夠深刻,才會讓一些離譜的故事不經驗證就被大肆瘋傳。
陶哲軒表示,無人機AI殺死操作員根本是不可能發生的,因為這需要AI具備比完成手頭任務更高的自主性和力量思維,而且這種實驗性軍事武器上,肯定會設置護欄和安全功能。
這種故事之所以讓人共鳴,說明人們對AI技術的實際能力水平還很陌生,很不安。
以後的軍備競賽,都是AI競賽
還記得上文中出現的那架無人機嗎?
它其實就是波音聯合澳大利亞研製的忠誠僚機項目——MQ-28A幽靈蝙蝠(Ghost Bat)。
忠誠僚機(Loyal Wingman)的核心是人工智能技術,按照預設程序自主飛行,與有人機飛行員進行配合的情況下,具備很強的態勢感知能力。
在空戰中,僚機作為長機的“左膀右臂”,主要負責觀察、警戒和掩護,與長機密切協同,共同完成任務。因此,僚機飛行員與長機飛行員之間的默契顯得格外重要。
忠誠僚機的一個關鍵作用,就是替飛行員和有人戰鬥機擋子彈,所以忠誠僚機基本就是一個消耗品。
畢竟,無人戰鬥機的價值,要比有人戰鬥機和飛行員小太多了。
而且在AI的加持下,無人機上的“飛行員”隨時都可以通過“Ctrl+C”的方式隨時new一個。
因為無人機損失不存在人員傷亡的問題,如果能僅以無人機的損失而在戰略或戰術層面獲得較大優勢、甚至達成任務目標,那麼這一損失就是可以接受的。如果無人機的成本控制得當,甚至可以成為一種行之有效的戰術。
忠誠僚機的發展離不開先進、可靠的人工智能技術。忠誠僚機目前在軟件層面的設計理念是,通過規範並開放人機接口、機機接口,能夠支持多類型無人機和有人戰機編隊協同,而不會對一套軟件或算法產生依賴。
但目前對無人機的操控應該是由來自有人戰鬥機或地面站的指令和自主操作組合而成的,更多是作為有人機的支持與補充,人工技能技術還遠遠達不到上戰場的要求。
訓練人工智能模型最重要的是什麼?當然是數據啊!巧婦難為無米之炊,沒有數據,再好的模型也沒效果。
不僅需要大量的訓練數據,模型部署後,輸入的“特徵”肯定越多越好,如果能獲取其他飛機的數據,那AI就相當於有了掌控全局的能力。
2020年,美國空軍首次開展了四/五代有人戰鬥機同無人僚機的編隊飛行數據共享測試,這也是忠誠僚機類項目發展過程中的里程碑事件,預示著未來的有人-無人編隊飛行作戰方式向實戰化應用又邁出了重要的一步。
美國空軍F-22猛禽戰鬥機、F-35A閃電II戰鬥機和美國空軍研究實驗室XQ-58A女武神無人機首次在美國陸軍尤馬試驗場進行編隊飛行測試,重在演示三型飛機之間的數據共享/傳輸能力。
說不定未來的空戰,就是比誰的AI模型更智能。
把對方的所有AI全部消滅就可以獲得勝利了,而沒有真正的人類傷亡,或許是另一種“和平”?