OpenAI宣布成立團隊在模型中加入”眾包”治理理念
OpenAI 表示,它希望採納大眾關於如何確保其未來人工智慧模型”符合人類價值”的意見。為此,這家人工智慧新創公司今天宣布,正在組建一個由研究人員和工程師組成的新的”集體對齊”(Collective Alignment)團隊,以創建一個系統,收集公眾對其模型行為的意見,並將其”編碼”到OpenAI 的產品和服務。
「我們將繼續與外部顧問和資助團隊合作,包括開展試點,將……原型納入我們的模型指導中,」OpenAI 在一篇部落格文章中寫道。”我們正在招募……來自不同技術背景的研究工程師,幫助我們一起進行這項工作。”
Collective Alignment團隊是OpenAI去年5月推出的一項公共計劃的產物,該計劃旨在為建立”民主程序”以決定人工智慧系統應遵循哪些規則的實驗提供資助。OpenAI 在首次推出該計畫時表示,該計畫的目標是資助個人、團隊和組織開發概念驗證,以回答人工智慧的防護和治理問題。
在今天的部落格文章中,OpenAI 回顧了獲得資助者的工作,其中包括視訊聊天介面、人工智慧模型眾包審計平台以及”將信念映射到可用於微調模型行為的維度的方法”。今天上午,受資助者工作中使用的所有代碼都被公開,同時也公佈了每項提案的簡要摘要和高層次的收穫。
OpenAI 試圖將該計劃與其商業利益剝離開來。但考慮到OpenAI執行長山姆-阿爾特曼(Sam Altman)對歐盟和其他地區監管的批評,這有點難以接受。阿爾特曼與OpenAI總裁格雷格-布羅克曼(Greg Brockman)和首席科學家伊利亞-蘇茨基弗(Ilya Sutskever)曾多次爭辯說,人工智慧的創新速度太快了,我們不能指望現有機構能夠充分控制這項技術,因此需要眾包這項工作。
包括Meta 在內的一些OpenAI 競爭對手指責OpenAI(包括其他公司)試圖透過遊說反對開放式人工智慧研發來確保”對人工智慧產業的監管”,OpenAI 對此予以否認,並很可能將撥款項目(以及Collective Alignment 團隊)作為其”開放性”的例證。
無論如何,OpenAI 正受到政策制定者越來越多的審查,在英國,它正面臨著一項有關其與親密合作夥伴和投資者微軟公司關係的調查。這家新創公司最近試圖降低其在歐盟的資料隱私監管風險,利用一家位於都柏林的子公司來削弱歐盟某些隱私監管機構單方面採取行動的能力。
毫無疑問,部分原因是為了打消監管機構的疑慮,OpenAI 昨天宣布,它正在與一些組織合作,試圖限制其技術被用於透過惡意手段左右或影響選舉的方式。這家新創公司所做的努力包括:讓使用其工俱生成的人工智慧影像更加清晰可見,以及開發即使在影像被修改後仍能識別生成內容的方法。