OpenAI宮斗大戲第二幕核心安全團隊解散負責人自爆離職內幕
OpenAI宮斗大戲第二幕開場。不同於蘇茨克維(Ilya Sutskever)離職時候的禮貌告別——“我相信OpenAI將在阿爾特曼等人的帶領下構建既安全又有益的AGI”,以及阿爾特曼溫情脈脈的說辭——“這讓我很難過……他(Ilya Sutskever)有一些個人意義重大的事情要去做,我永遠感激他在這裡所做的一切」。
最新離職的OpenAI高管,超級對齊團隊負責人Jan Leike直接撕破臉皮,揭露OpenAI聯合創始人兼首席科學家蘇茨克維離職內幕——阿爾特曼不給資源、力推商業化不顧安全。
Leike同時也是OpenAI的共同創辦人,屬於「保守派」陣營,他在Sutskever宣布離職後僅幾個小時就發文:我辭職了。
官方宣布離職次日,Leike連發十多條帖子,公開解釋了離職原因——
團隊分配不到足夠的資源:超級對齊團隊過去幾個月一直在“逆風航行”,在計算上很吃力,完成研究越來越困難;
安全並非阿爾特曼的核心優先事項:過去幾年,安全文化和流程已經讓位給更耀眼的產品。 “很長一段時間以來,我與OpenAI領導層對公司核心優先事項的看法一直不合,直到我們終於到了臨界點。”
這是OpenAI高階主管級別的人物首次公開承認公司重視產品開發勝過安全。
阿爾特曼的回應依舊體面,他表示,自己非常感謝Jan Leike對OpenAI的一致性研究和安全文化所做的貢獻,並且很遺憾看到他離開。 「他說得對,我們還有很多事情要做,我們致力於做到這一點。我將在未來幾天內發布一篇更長的帖子。”
▍投資未來?不阿爾特曼選擇把握現在
OpenAI的超級對齊團隊於2023年7月成立,由Leike和Sutskever領導,成員為OpenAI前校準部門的科學家和工程師以及來自公司其他機構的研究人員,可以說是一群技術人員組成的團隊。該團隊旨在確保人工智慧與其製造者的目標保持一致,目標是在未來解決控制超級智慧AI的核心技術挑戰,“解決如果公司成功建立AGI,實際上會出現不同類型的安全問題。”
也就是說,超級對齊團隊是在為更強大的AI模型、而非當下的AI模型打造安全罩。
正如Leik所說,「我相信我們應該投入更多的精力來為下一代模型做好準備,關注安全性、監控,做好準備、讓AI具有對抗性的魯棒性、(超級)對齊,關注保密、社會影響等相關主題。
Leik也指出,雖然目前超智能AI看似遙遠,但可能在本十年內出現,管理這些風險需要新的治理機構和對齊技術,從而確保超智能AI系統遵循人類意圖。
站在阿爾特曼的立場,維護超級對齊團隊是一項龐大的開銷。 OpenAI曾經承諾該團隊將獲得該公司20%的運算資源,這勢必會削弱OpenAI新產品開發的資源,而投資超級對齊團隊實際上是在投資未來。
根據OpenAI超級對齊團隊的一位人士透露,20%計算資源的承諾被打了折扣,其中一小部分計算的請求經常被拒絕,這阻礙了團隊的工作。
▍超級對齊團隊解散然後呢?
根據《連線》等媒體報道,在Sutskever和Leike相繼離職後,OpenAI的超級對齊團隊已被解散。其不再是一個專門的團隊,而是一個鬆散的研究小組,分佈在整個公司的各個部門。 OpenAI的一位發言人將其描述為「更深入地整合(團隊)」。
有消息指出OpenAI的另一位聯合創始人約翰•舒爾曼(John Schulman)可能會接手關於與更強大模型相關的風險的研究。
這不免讓人質疑,Schulman目前的工作任務在於確保OpenAI目前產品的安全,他會專注於面向未來的安全團隊嗎?
阿爾特曼另一被人詬病的地方在於「摀嘴」離職員工。
自去年11月至今,OpenAI至少有7名註重安全的成員辭職或被開除,但離職員工大多不願公開談論此事。
根據Vox報道,部分原因是OpenAI會讓員工在離職時簽署帶有非貶低條款的協議。如果拒絕簽署,就將失去先前拿到的OpenAI的選擇權,這意味著出來說話的員工可能會損失一筆巨款。
一位OpenAI前員工爆料,公司入職文件說明中包含一項:「在離開公司的六十天內,你必須簽署一份包含’一般豁免’的離職文件。如果你沒有在60天內完成,你的股權獲益將被取消。
阿爾特曼變相承認了此事,他回應稱,該公司的離職文件中有一項關於離職員工「潛在股權取消」的條款,但從未付諸實踐,「我們從未收回任何人的既得股權。他還表示,公司正在修改離職協議條款,“如果任何簽署了這些舊協議的前僱員對此感到擔心,他們可以聯繫我。
回到OpenAI高層爭執的原點,也是這場曠日持久的宮鬥的核心矛盾點——「保守派」強調先安全再產品,「獲利派」希望盡快落實商業化。
OpenAI將如何平衡產品的安全性與商業化?如何挽回愈發糟糕的公眾形象?
期待阿爾特曼未來幾天內的「小作文」。