五角大廈稱人工智慧正在加速其”殺傷鏈”
領先的人工智慧開發商如OpenAI 和Anthropic正在穿針引線地向美國軍方推銷軟體:讓五角大廈更有效率,同時不讓他們的人工智慧殺人。五角大廈首席數位和人工智慧長拉達普拉姆博士(Dr. Radha Plumb)在接受採訪時表示,如今,他們的工具並未被用作武器,但人工智慧正在為國防部在識別、追蹤和評估威脅方面帶來”顯著優勢”。
普拉姆說:”顯然,我們正在增加加速執行殺傷鏈的方法,以便我們的指揮官能夠在正確的時間做出反應,保護我們的部隊。”
殺傷鏈”是指軍隊識別、追蹤和消除威脅的過程,涉及感測器、平台和武器的複雜系統。”據普拉姆稱,在殺傷鏈的規劃和戰略制定階段,生成式人工智慧證明是有幫助的。
五角大廈與人工智慧開發者之間的關係相對較新。 OpenAI、Anthropic 和Meta 在2024 年收回了他們的使用政策,允許美國情報和國防機構使用他們的人工智慧系統。 不過,它們仍然不允許人工智慧傷害人類。
當被問及五角大廈如何與人工智慧模型提供者合作時,普拉姆說:”我們已經非常清楚,我們會在什麼情況下使用他們的技術,不會在什麼情況下使用他們的技術。”
儘管如此,這還是為人工智慧公司和國防承包商拉開了一輪交集的序幕。
Meta 與洛克希德馬丁公司(Lockheed Martin)和博思艾倫公司(Booz Allen)等公司合作,於11月將其Llama人工智慧模型提供給國防機構。 同月,Anthropic與Palantir合作。 12 月,OpenAI 與Anduril 達成了類似的協議。 更低調的是,Cohere也一直在與Palantir 合作部署其模式。
隨著生成式人工智慧在五角大廈的實用性得到證明,它可能會推動矽谷放寬人工智慧使用政策,允許更多的軍事應用。
普拉姆說:”透過不同的場景進行遊戲是生成式人工智慧可以提供幫助的地方。它可以讓你利用我們的指揮官所擁有的各種工具,還可以創造性地思考不同的應對方案,以及在需要應對潛在威脅或一系列威脅的環境中可能出現的取捨。
目前還不清楚五角大廈在這項工作中使用了誰的技術;在殺傷鏈中使用生成式人工智慧(即使在早期規劃階段)似乎違反了幾家領先模型開發商的使用政策。 例如,Anthropic 的政策禁止使用其模型來生產或修改”旨在對人類生命造成傷害或損失的系統”。
Anthropic 介紹了其首席執行官達裡奧-阿莫代(Dario Amodei)最近接受《金融時報》的採訪,他在採訪中為自己的軍事工作進行了辯護:
我們永遠不應該在國防和情報領域使用人工智慧的立場對我來說毫無意義。 而那種認為我們應該瘋狂地使用人工智慧來製造任何我們想要的東西–甚至包括末日武器–的觀點顯然也同樣瘋狂。 我們試圖尋求中間立場,以負責任的方式行事。
OpenAI、Meta 和Cohere 沒有回應置評請求。
近幾個月來,一場圍繞著是否真的應該允許人工智慧武器做出生死攸關的決定的國防科技辯論已經爆發。
Anduril 執行長帕爾默-盧基(Palmer Luckey)最近在X 上指出,美國軍方長期以來一直在購買和使用自主武器系統,例如CIWS砲塔。
「國防部購買和使用自主武器系統已有幾十年的歷史。” Luckey 說:”它們的使用(和出口)是被充分理解、嚴格定義的,並且受到明確的規則監管,完全不是自願的。 “
但當被問及五角大廈是否會購買和操作完全自主的武器時,普拉姆原則上拒絕了這個想法。
普拉姆說:”簡而言之,不會。從可靠性和道德的角度來看,我們在決定使用武力時始終需要人類的參與,這也包括我們的武器系統。”
“自主”一詞有些含糊不清,引發了科技業關於自動系統(如人工智慧編碼代理、自動駕駛汽車或自動發射武器)何時才能真正獨立的爭論。
普拉姆說,自動系統獨立做出生死決定的想法”過於二元化”,現實沒有那麼”科幻”。 相反,她認為五角大廈對人工智慧系統的使用實際上是人類與機器之間的合作,高層領導在整個過程中都在積極決策。 「人們往往會認為,在某個地方有機器人,然後gonculator(一種虛構的自主機器)會吐出一張紙,而人類只是在方框裡打勾。這不是人機合作的方式,也不是使用這類人工智慧系統的有效方法。
與軍方的合作並不總是能得到矽谷員工的歡迎。 去年,亞馬遜和Google的數十名員工因抗議公司與以色列的軍事合約(代號為”Project Nimbus”的雲端交易)而被解僱和逮捕。
相較之下,人工智慧界的反應卻相當平淡。 一些人工智慧研究人員,如Anthropic公司的埃文-胡賓格(Evan Hubinger)說,在軍隊中使用人工智慧是不可避免的,關鍵是要直接與軍方合作,以確保他們能正確地使用人工智能。
“如果認真對待人工智慧帶來的災難性風險,那麼美國政府就是一個極其重要的參與者,而試圖阻止美國政府使用人工智慧並不是一個可行的策略,”Hubinger 在11 月的線上論壇LessWrong 上發帖說。 “僅僅關注災難性風險是不夠的,你還必須防止政府可能濫用你的模型的任何方式”。