五大道德原則:美軍公佈未來武器中使用AI標準
根據美國國防部發布的最新新聞稿,美國軍方制定了未來裝備在機器人坦克、智能武器系統中人工智能的新道德標準。新聞稿中指出,美國國防部和業內領先的多名AI專家共同研究15個月之後,提出了涉及五個考慮因素的執導方針。
Photo: US Navy/DVIDS
據悉這五大道德原則分別為“責任”、“公平”、“可追溯”、“可靠”和“可控”。雖然該委員會決議並不具拘束力,但知情官員指出,五角大廈即將重新制定的規格將“完全符合該規範”。
這五大道德原則分別為
1.責任(Responsible)
負責國防部人員將行使適當的判斷力和謹慎水平,同時還要負責AI功能的開發,部署和使用。
2.公平(Equitable)
國防部將採取有步驟的措施,最大程度地減少人工智能功能中的意外偏見。
3.可追溯(Traceable)
國防部開發和部署的AI功能將會提供適用情境、開發流程和操作方法等等,並通過透明且可審核的方法對數據源、設計程序和文檔進行查看
4.可靠(Reliable)
國防部對各項AI功能都具有明確定義的用途,並且這些功能的安全性,有效性和有效性將在其整個生命週期內經受測試和保證。
5.可控(Governable)
國防部將設計和工程AI功能,以實現其預期的功能,同時具有檢測和避免意外後果的能力,以便於在遭遇突發狀況的時候及時控制。
五角大廈透過聲明稿表示,這些原則理論基礎源於美國憲法,規范美軍角色與定位的《美國法典》第10卷,國際戰爭法以及國際既有的條約與規範,未來這些通用性原則將適用於於包括戰鬥與非戰鬥用途的AI,以維護美軍在使用AI時的正當性與合法性。
美國國防部“聯合人工智慧中心”(JAIC)主任夏納翰翰中將表示,相較於蘇聯,中共發展軍用AI引發包括違反人權,道德與國際規範等疑慮的事實,美國與西方盟國對於AI的安全使用與人道考量全面且一致,JAIC未來也將召集美軍所有與AI有關的領導階層,研討落實該原則的實際措施。
部分專家對於AI的軍事化表達高度憂心,國際自動化武器規範委員會(iPRAW)成員,德國慕尼黑大學附屬紹爾就表示,五角大廈以及DIB的做法雖然令人讚賞,而將武器自動化仍可能造成極大影響,當致命擊殺鏈具自主判斷能力時,恐造成危機甚至毀滅。
DIB在原則中,明確指出人類對AI必須掌握最終的控制權,並針對AI使用負起完全責任。提升該領域軍民合作的可能性。