Meta 公司解散了負責任人工智慧團隊(RAI)
隨著將更多資源投入生成式人工智慧領域,Meta 公司已經解散了其負責任人工智慧(RAI)團隊。The Information 今天引用其看到的一篇內部文本爆料了這一消息。報道稱,RAI 的大部分成員將轉到該公司的生成式人工智慧產品團隊,其他人則將在Meta 的人工智慧基礎設施上工作。
Meta經常對外宣稱要以負責任的方式開發人工智慧,甚至還專門為此設立了一個頁面,列出了其”負責任的人工智慧支柱”,包括問責制、透明度、安全性、隱私等。
The Information 的報導引述Meta 公司代表喬恩-卡維爾(Jon Carvill)的話說,公司將”繼續優先投資於安全、負責任的人工智慧開發”。他補充說,雖然公司正在拆分團隊,但這些成員將「繼續支持跨Meta 的相關工作,負責任地開發和使用人工智慧」。
截至發稿時,Meta 公司沒有回應置評請求。
該團隊在今年早些時候已經進行了重組,《商業內幕》(Business Insider)在報道中寫道,重組包括裁員,這使得RAI 成為”一個空殼團隊”。該報道還稱,RAI 團隊自2019 年起就已存在,但幾乎沒有自主權,其倡議在實施前必須經過漫長的利害關係人進行談判。
RAI 的創建是為了發現其人工智慧訓練方法中存在的問題,包括該公司的模型是否經過了充分多樣化的資訊訓練,以防止平台上的審核問題等。Meta 社群平台上的自動化系統已經導致了一些問題,例如Facebook 翻譯問題導致了一次錯誤逮捕,WhatsApp 人工智慧貼圖產生在特定提示下會產生有偏見的圖片,Instagram 的演算法幫助人們找到CSAM有害資訊資料。
在世界各國政府競相為人工智慧發展設立監管護欄之際,微軟也在今年初採取了類似的措施。美國政府與人工智慧公司達成了協議,總統拜登隨後指示政府機構制定人工智慧安全規則。同時,歐盟公佈了其人工智慧原則,並仍在努力通過其人工智慧法案。