OpenAI研究員辭職聲稱安全問題已被改進後的產品所解決
繼聯合創始人伊利亞-蘇茨克沃(Ilya Sutskever)離職後,本週早些時候辭職的OpenAI 重要研究員揚-萊克(Jan Leike)週五上午在X 上發帖稱,在公司,”安全文化和流程已經被閃亮的產品所取代”。
雷克的聲明是在《連線》報道OpenAI 已經解散了專門負責解決長期人工智慧風險的團隊(稱為”超級對齊團隊”)之後發表的。萊克一直負責管理Superalignment團隊,該團隊於去年7月成立,目的是在OpenAI開發出能像人類一樣推理的人工智慧時,”解決實施安全協議的核心技術挑戰”。
OpenAI 最初的想法是向公眾公開提供他們的模型,這也是該組織名稱的由來,但由於該公司聲稱允許任何人訪問如此強大的模型可能具有潛在的破壞性,因此這些模型已經成為專有知識。
「我們早該認真對待AGI 的影響。我們必須優先為其做好準備,」萊克在周五上午關於他辭職的後續推文中說。 “只有這樣,我們才能確保AGI 造福全人類。”
在去年不成功的董事會政變中支持Altman 的另一位OpenAI 聯合創始人約翰舒爾曼(John Schulman)將接替Leike 的職責。在針對山姆-奧特曼(Sam Altman)的臭名昭著的失敗政變中扮演關鍵角色的蘇茨克沃週二宣布離職。
萊克的貼文凸顯了OpenAI 內部日益緊張的關係。隨著研究人員在管理ChatGPT 和DALL-E 等消費級人工智慧產品的同時競相開發人工通用智能,像萊克這樣的員工開始擔心創建超級智慧人工智慧模型的潛在危險。萊克說,他的團隊被剝奪了優先權,無法獲得計算和其他資源來完成”關鍵”工作。
萊克寫道:「我之所以加入,是因為我認為OpenAI 將是世界上從事這項研究的最佳場所。然而,我與OpenAI 領導層就公司的核心優先事項產生分歧已經有一段時間了,直到我們最終達到了一個爆發點。