AI武器:打擊更精準更有效未來戰爭或全面升級
9月14日,沙特國家石油公司,即阿美石油公司的布蓋格煉油廠及胡賴斯油田兩處石油設施遭到無人機和導彈襲擊,導致沙特每天大約570萬桶的原油產量暫停供應,這占到了沙特產能的50%,也相當於全球5%的石油日消耗量。無人機襲擊的一個直接後果,是國際油價應聲而漲,16日一度飆升近20%。
AI武器:未來戰爭的全面升級
文/張田勘
發於2019.10.14總第919期《中國新聞周刊》
9月18日,沙特國防部公佈石油設施受攻擊的詳情。在此次襲擊中,攻擊方使用了18架無人機和7枚導彈。
此前,中東地區的無人機大戰已經在各派之間頻頻展開。無人機(UAV)是利用無線電遙控設備和自備的程序控制裝置操縱的不載人飛機,或者由車載計算機完全或間歇自主地操作的飛行器和武器,因此它是AI產品。也許,無人機的加入戰爭和進一步改進,將與核武器的攻擊力旗鼓相當,甚至更厲害。
無人機加入戰爭意味著,AI深度加入戰爭的時代已經來臨,且將導致重大的傷害和全面的戰爭升級,AI不介入軍事或戰爭的承諾已淪為笑話,潘多拉的魔盒已經被打開。
無人機加入戰爭是對人類已經意識到並願意遵循的倫理的違背。人類在20世紀的核武器研發與應用曾一度是無意識的。提出了曼哈頓計劃的愛因斯坦後來曾說,如果知道原子彈能造成如此大的傷害,是決不會寫信給美國總統羅斯福建議研發原子彈的。
當今,全球最大的一些科技公司都提出了關於AI的倫理原則,其共同點就是不用於軍事和戰爭。2017年,116名全球人工智能和機器人領域的專家發表聯名公開信,呼籲聯合國採取行動禁止“自主殺人機器”(恐怖武器或智能武器)。此後,美國太空探索技術公司(SpaceX)CEO馬斯克與全球2400名機器人研發人員在斯德哥爾摩宣誓稱,“絕不參與致命性自主武器系統的開發、研製工作。” 微軟員工也提出,反對參與美軍項目,因為這不符合公司AI倫理原則。
2018年4月,3000多名谷歌員工向谷歌首席執行官桑德爾·皮查伊聯名上書,反對該公司參與五角大樓的軍用人工智能Project Maven項目。這個項目是利用機器人深度學習和人工智能分析、應用計算機視覺技術,幫助美國國防部從圖像和視頻中提取識別重點對象目標。由於員工的反對,谷歌被迫做出決定,在Project Maven合同2019年到期後,不再與五角大樓續簽。
然而,僅僅一些人和一些公司遵守“AI不加入軍事不用於戰爭不殺人”的倫理準則是不夠的,現在無機人機頻頻參與戰爭,襲擊人類住所與重大經濟目標,已經說明當今AI的倫理是非常脆弱的。2019年4月7日,谷歌新成立的AI倫理委員會只存活了不到10天即宣告解散,原因之一是,無人機公司首席執行官吉布斯(Dyan Gibbens)加入倫理委員會後,重組了自己公司的舊部門,試圖將AI用於軍事領域。這一行為遭到了谷歌員工的反對,這說明,由公司發起的倫理委員會根本無法阻止這一勢頭。
軍事人員與一些科研人員支持AI武器的理由是,AI介入戰爭是為了避免大規模傷及無辜,如像核武器不分青紅皂白地殺死平民和常規武器地毯式轟炸濫殺無辜。所以,如果真是為了和平,就用精確制導武器消滅敵人來製止戰爭。因此,AI武器的出現和加入戰爭,是戰爭的第三次革命。
然而,實際上,無人機加入戰爭只會更肆無忌憚地襲擊軍事目標以外的民用和經濟目標,現在,沙特兩處石油設施遭無人機攻擊已是最好的證明。儘管這次襲擊未造成人員傷亡,但對沙特經濟和全球石油供應的影響是持續而深遠的,這也向世人公開展示,要想取得軍事勝利與實現政治目標,使用更新更好的AI武器是首選。
無人機會加劇未來戰爭的殘酷程度。2017年11月12日,一部由美國加州大學伯克利分校的教授斯圖爾特·拉塞爾與生命未來研究所合作拍攝的一部虛構影片開始在網絡上傳播。影片裡,一種手掌大小的無人機殺人武器(Slaughterbots)配備了面部識別技術並攜帶炸藥,先由一架或幾架無人機炸開圍牆,後面的無人機進入大學和國會,通過面部識別,對準鎖定的目標大學生與國會議員進行爆頭屠殺。
雖然這只是虛擬場景,但在不遠的未來,小型無人機都可以配備人臉識別系統及聚能炸藥,在程序輸入後,可根據命令單獨作戰,或集群作戰,尋找和殺滅已知的個體或類似具有統一特徵的人群,讓每個人無法逃脫大屠殺。這樣的AI武器比起原子彈來甚至更為厲害——至少原子彈爆炸時人們還有地下掩體可以保護,但在未來,任何人都無法逃脫AI武器的精準追殺。
Slaughterbots:無人機殺人武器概念機。
依靠人臉識別技術追殺人的無人機,也還屬於初級的人工智能武器。根據對人工智能的分類,目前的AI武器可以分為三類。一類是完全由人類決定並由人遠程操作的無人機,現在美國的MQ-1“捕食者”偵察機就是代表。
第二類是機器人可以自己做一定的判斷,但在執行任務期間,人類可以中斷或取消無人機的任務,如以色列的“哈比”自殺式無人機就屬於這一類。加州大學的拉塞爾教授所演示的無人機炸彈也屬於這一類。上述兩類武器都已經用於實戰。
第三類,是人類完全不參與決策過程的自主型殺手無人機或機器人。這類機器本質上還是要由人來決定,即由人編程並在一定程度上讓無人機自己決策,但是,這類無人機的最大隱患在於,可能出現程序錯誤而導致誤傷,自主判斷做出人類意想不到或不會讓其進行的行動,如擴大打擊範圍和強度。另外,如果這類武器擴散到恐怖分子手中,會造成更大災難。
AI武器的這三種分類也來源於人工智能的三種分類:弱人工智能,只能完成某一項特定任務或者解決某一特定問題的人工智能;強人工智能或通用人工智能,可以像人一樣勝任任何智力性任務的智能機器;超人工智能或超級智能,可以像人類實現智能上的生物進化,對自身進行重編程和改進,即“遞歸自我改進功能”。
目前,在技術上,用超人工智能來打造殺人武器尚難以實現,但現有的兩類人工智能武器已經顯示了比常規武器更大的殺傷力,而且,由於可能出現程序錯誤,誰也不能保證無人機和機器人武器不會濫殺無辜。現在已經到了正視AI武器的危害並製定禁止AI武器規定的時候了!
迄今為止,聯合國已經有《禁止核武器條約》《不擴散核武器條約》《關於禁止發展、生產、儲存和使用化學武器及銷毀此種武器的公約》《禁止細菌(生物)及毒素武器的發展、生產及儲存以及銷毀這類武器的公約》等條約,唯獨沒有禁止AI武器的國際法。
美軍曾明確表示不會禁止使用無人自動化武器,包括無人機、無人船艦等。他們提出的一個相當有力的理由是,當人們尚未完全了解AI武器時就要求禁止使用它,此舉無異於杞人憂天。實際上,美軍非但不會禁止,還會大力推廣AI武器的使用。
在這樣的背景下,即便國際社會願意探討控制與禁止AI武器,可能也不會獲得廣泛支持和達成共識。人們還擔心,制定了禁止AI武器的國際公約,可能也無法阻止有人研發AI武器和使用AI武器。AI武器對未來人類戰爭的影響目前還難以估量,但必將是重大而深遠的。