Meta將停止開發被認為風險過高的人工智慧系統
Meta 公司執行長馬克-祖克柏(Mark Zuckerberg)曾承諾,有朝一日將公開人工通用智慧(AGI)–大致定義為可以完成人類可以完成的任何任務的人工智慧。但在一份新的政策文件中,Meta 表示在某些情況下可能不會發布其內部開發的高能力AI 系統。

這份文件被Meta 稱為”前沿人工智慧框架”(Frontier AI Framework),它指出了兩類公司認為風險過高而不能發布的人工智慧系統:”高風險”和”臨界風險”系統。
根據Meta 公司的定義,”高風險”和”臨界風險”系統都能協助網路安全、化學和生物攻擊,區別在於”臨界風險”系統可能導致”在擬議部署環境中無法減輕的災難性後果”。相較之下,”高風險”系統可能會使攻擊更容易實施,但不如”臨界風險”系統可靠。
Meta 公司舉了幾個例子,如”自動端到端破壞受最佳實踐保護的企業級環境”和”高影響力生物武器的擴散”。該公司承認,Meta 文件中列出的可能災難遠非詳盡無遺,但其中包括Meta 認為”最緊迫”、最有可能因發布強大的人工智慧系統而直接導致的災難。
讓人感到有些意外的是,根據這份文件,Meta 對系統風險的分類並不是基於任何一項經驗測試,而是參考了內部和外部研究人員的意見,並由”高層決策者”進行審查。 Meta 公司表示,它不認為評估科學”足以提供明確的量化指標”來決定一個系統的風險程度。
如果Meta 確定某個系統為高風險系統,該公司表示將在內部限制對該系統的訪問,並且在實施緩解措施”將風險降低到中等水平”之前不會發布該系統。另一方面,如果某個系統被認定為嚴重風險,Meta 公司表示將實施不明的安全保護措施,防止系統被外洩,並停止開發,直到系統的危險性降低為止。
Meta 的”前沿人工智慧框架”(Frontier AI Framework)似乎是對該公司”開放”系統開發方法所受批評的回應,該公司表示,該框架將隨著不斷變化的人工智慧環境而發展。 Meta 公司採取的策略是公開其人工智慧技術–儘管按照通常的理解並不是開源的–與OpenAI 等選擇將其係統封閉在API 後面的公司形成鮮明對比。
對Meta 來說,開放式發布方式被證明是福也是禍。該公司名為Llama的人工智慧模型系列已經獲得了數億次下載。但據報道,Llama也被至少一家美國對手用來開發防禦聊天機器人。
Meta 發布《前沿人工智慧框架》的目的可能還在於將其開放式人工智慧策略與中國人工智慧公司DeepSeek 的策略進行比較。 DeepSeek 也公開了自己的系統。但該公司的人工智慧幾乎沒有保障措施,很容易被引導產生有害的輸出。
Meta 在文件中寫道:”我們相信,在決定如何開發和部署高級人工智慧時,透過同時考慮利益和風險,有可能以一種既能保持該技術對社會的利益,又能保持適當風險水平的方式向社會提供該技術。