OpenAI發布AI安全指南:董事會有權阻止新AI模型發布
人工智慧(AI)研究公司OpenAI公佈了一套關於防範AI風險的指導方針,其中值得關注的一條規則是,即使CEO等公司領導層認為AI模型是安全的,董事會也可以阻止其發布。 OpenAI開發的聊天機器人ChatGPT已經發布了一整年,這款現象級應用極大促進了AI領域的發展,與之而來的還有對AI發展失控的擔憂。
全球監管機構都在製定各自的AI法規,而作為AI領域領頭羊的OpenAI也在採取行動。
今年10月27日,OpenAI宣布組成一個名為「準備」(Preparedness)的安全團隊,旨在最大限度地降低AI帶來的風險。
Preparedness團隊由麻省理工學院的可部署機器學習中心主任Aleksander Madry領導,該團隊將針對各類AI模型進行能力評估及紅隊測試,以追蹤、預測及防範各類別的災難性風險。
OpenAI週一發布了名為「準備框架」(Preparedness Framework)的指導方針,並強調這套指南仍處於測試階段。
據悉,Preparedness團隊每月將向一個新的內部安全諮詢小組發送報告,該小組隨後將對其進行分析,並向OpenAI首席執行官薩姆·奧爾特曼和董事會提交建議。 奧特曼和公司高層可以根據這些報告決定是否發布新的AI系統,但董事會有權撤銷此決定。
身為OpenAI共同創辦人之一,奧爾特曼在不久前還是公司董事會成員,但在一場人事巨震中被除名,並且一度離開OpenAI。雖然奧爾特曼最終得以重返OpenAI並繼續擔任CEO一職,但新組建的「初始」董事會並沒有他的席位。
Preparedness團隊將反覆評估OpenAI最先進、尚未發布的AI模型,根據不同類型的感知風險評為四個等級,從低到高依次是「低」、「中」、「高」和「嚴重」。根據新的指導方針,OpenAI將只推出評級為「低」和「中」的模型。