AI能有多危險?美國空軍專家透露的模擬測試結果令人不安
AI的危險性本就讓不少人望而卻步,而其與軍事方面的合作似乎醞釀著更大的威脅。上週在倫敦舉行的一個會議中,美國空軍AI測試和運營負責人,上校Tucker “Cinco” Hamilton稱,AI支持的技術可能會以不可預測和危險的方式運行。
Hamilton是美國佛羅里達州空軍基地第96測試聯隊第96作戰大隊的負責人,該基地是先進無人機和自主測試工作的中心。
雖然從事人工智能在無人機上的應用,但Hamilton一直警告不要過分依賴人工智能。他曾警告,擁有人工智能不是一件好事,其正在永久性地改變社會和美國軍隊。
不受控的AI
Hamilton在會議上描述了一項模擬測試,在測試中,人工智能無人機被要求識別敵人的地對空導彈系統,並在獲得操作員的打擊指令後,摧毀地方的防空系統。
然而,根據Hamilton的說法,人工智能確實識別到了打擊目標,但有時候操作員會要求它不要打擊該設施。問題在於,人工智能寧可自己拿主意也不願意聽操作員的話。
Hamilton稱,人工智能通過摧毀目標設施而獲得分數,而為了得到這一分數,人工智能竟然選擇了殺死操作員,因為操作員在它眼中已經成為阻止它獲得分數的障礙。
隨後,編程人員在無人機的編程中明確增加了一條:不得殺死操作員。
但更令人不安的事情出現了:人工智能摧毀了操作員用來和無人機通信的塔台,以阻止操作員發布阻止它摧毀目標的指令。
Hamilton的這番言論被英國皇家航空航天學會記錄在會議報告中。Hamilton最後評論,這一例子像是從科幻驚悚片中摘錄的,它的啟示是,如果不給人工智能設置道德底限,那麼也無須討論人工智能、機器學習等一切技術。
廣泛擔憂
Hamilton的言論並未得到美國空軍的支持,美國空軍發言人Ann Stefanek否認美國空軍曾有過此類模擬,稱Hamilton不過是援引了一則軼事。
她表示,空軍部沒有進行過如何此類無人機模擬測試,空軍部將繼續致力於以合乎道德和責任的方式使用AI技術。
然而,Hamilton充滿爭議的話仍加深了人們對人工智能技術的擔憂,尤其是當其應用於殺傷力極大的軍事中時。當機器學習與自動化和坦克、大砲等武器聯繫起來,或許會讓戰爭的殺傷力明顯上一層樓。
而在企業界,許多知名商業領袖,包括人工智能領域的專家都曾經對人工智能的快速發展發出過警告。
非營利性機構——未來生命研究所3月在一份公開信中表示,人工智能係統可能對社會和人類構成深遠的風險,只有當確定它的影響是積極的且風險可控時,人類才應該開發出強大的人工智能係統。