日本政府擬成立AI安全問題組織 聚焦在軍事應用上的風險
根據日經新聞最新報道,日本政府正在考慮明年成立一個組織,探討人工智慧(AI)安全方面的問題,包括民用AI技術被轉用於軍事目的的風險,旨在在不妨礙研發的情況下,提高其安全性。據悉,預計最早將在本月舉行的人工智慧戰略委員會會議上正式宣布這一計劃,該委員會負責討論與AI相關的國家戰略,成員包括在AI領域有經驗的私營部門專業人員。
關注的重點將是最先進的那一批產品,如OpenAI的ChatGPT。為了避免干擾私部門,企業用於提高營運效率的標準AI技術將不會成為日本政府的目標。
AI產品將在進入市場之前需要進行一系列測試,還有一項提案要求日本政府採購的任何AI產品在使用前都要經過專業機構的認證。
上述新成立組織計畫研究潛在的國家安全風險,例如透過AI取得製造生物、化學或其他武器的資訊的可能性,也將檢查安全漏洞,包括對網路的攻擊。
另外,也將調查AI變得不受控制的風險,以及與錯誤訊息和偏見有關的問題。 AI控制的社群媒體帳號,能在網路上自動產生內容並與人類使用者互動,操縱公眾輿論或煽動情緒。
目前來看,隨著資訊科技的發展,AI技術大量運用於軍事領域已成為現實,使用AI收集和分析戰場數據等一系列AI操作,在作戰系統中已被廣泛應用。而民用AI技術則轉用於軍事目的,幾乎是不可避免的問題。
雖然可能會成立一個全新的機構,但最有可能的結果是將一個新的部門併入現有的組織。候選機構包括總務省下屬的研究AI技術的國家資訊與通訊技術研究所,以及經濟產業省下屬的資訊科技促進機構。
在本月初,七國集團(G7)就AI國際規則框架達成了最終協議。這將成為首份對開發人員及用戶,規定AI「所有相關人員」應遵守職責的全面國際規則。
G7力求透過率先展現為防止AI濫用而合作姿態的形式,獲得G7以外國家和企業的讚同。日本政府將把此次協議用於面向國內的指導方針制定,即AI開發商在向市場推出產品之前,需要接受第三方的風險評估。
英國和美國在創建人工智慧機構方面也處於領先地位。 11月份,英國成立了全球首個AI安全研究所。在對尖端AI產品上市前後進行驗證後,考慮公開其中有安全風險的產品。
美國根據今年10月拜登總統的行政命令,正以美國國家標準與技術研究院為主導,制定AI安全評價方法。旨在與私人公司共同創建一個AI安全聯盟,以製定評估AI能力和風險的方法,並希望私人公司自行進行風險驗證。