奧特曼和Brockman回應OpenAI安全團隊辭職:未來比過去更艱難
本週,OpenAI 超級對齊團隊(忽略公司安全問題)的聯合負責人Jan Leike 辭職。在X(前身為Twitter)上的一篇貼文中,這位安全負責人解釋了他離開OpenAI 的原因,包括他在相當長的一段時間內與公司領導層關於其核心優先事項的意見不一致,以至於達到了臨界點。
第二天,OpenAI 執行長Sam Altman 和總裁兼聯合創始人Greg Brockman 回應了Leike 關於公司不關注安全的說法。
除此之外,Leike 還表示,近年來OpenAI 的安全文化和流程已經讓位給閃亮的產品,他的團隊很難獲得資源來完成安全工作。
雷克寫道:我們早就該認真看待AGI(通用人工智慧)的影響了。我們必須優先考慮盡我們所能為他們做好準備。
週五, Altman在雷克的轉發中首先做出了回應,並表示雷克是對的,OpenAI 還有很多事情要做,並且致力於這樣做。他承諾將會發布更長的貼文。
週六,布羅克曼在X 上發布了他自己和Altman 的共同回應:
在對雷克的工作表示感謝後,布羅克曼和奧爾特曼表示,他們在雷克辭職後收到了一些問題。他們分享了三點,第一是OpenAI 提高了人們對AGI 的認識,以便世界能夠更好地為此做好準備。
他們寫道:我們一再證明擴大深度學習規模所帶來的巨大可能性,並分析其影響;在AGI 的國際治理流行之前就呼籲這種呼籲;並幫助開拓評估人工智慧系統災難風險的科學。
第二點是,他們正在為這些技術的安全部署奠定基礎,並以員工為以安全的方式將ChatGPT-4 帶到世界」所做的工作為例。兩人聲稱,自那時以來(OpenAI 於2023 年3 月發布了ChatGPT-4),該公司根據部署中學到的經驗教訓,不斷改進模型行為和濫用監控。
第三點? 「未來將比過去更艱難,」他們寫道。 Brock 和Altman 解釋說,OpenAI 在發布新模型時需要不斷提升其安全工作,並引用該公司的準備框架作為幫助實現這一目標的一種方式。
根據OpenAI 網站上的頁面,該框架預測可能出現的災難性風險,並尋求減輕這些風險。
然後,布羅克曼和奧特曼繼續討論未來,OpenAI 的模型將更加融入世界,更多的人與它們互動。他們認為這是一件有益的事情,並相信可以安全地做到這一點——「但這需要大量的基礎工作。」因此,該公司可能會推遲發佈時間表,以便模型達到其安全標準。
「我們知道我們無法想像未來所有可能的情況。」他們說。 “因此,我們需要有一個非常嚴格的反饋循環、嚴格的測試、每一步都仔細考慮、世界一流的安全性以及安全性和功能的和諧。”
領導人表示,OpenAI 將繼續與政府和利益相關者就安全問題進行研究和合作。
他們總結:對於如何走上通用人工智慧之路,目前還沒有經過驗證的劇本。我們認為實證理解可以幫助指引前進的方向。我們相信,既能帶來巨大的好處,又能努力減輕嚴重的風險;我們非常認真地對待我們在這裡的角色,並仔細權衡對我們行動的回饋。
OpenAI 首席科學家Ilya Sutskever本周也辭職,這一事實使雷克的辭職和言論變得更加複雜。 #WhatDidIlyaSee成為X 上的熱門話題,標誌著人們對OpenAI 高層領導者所了解的事情的猜測。從布羅克曼和奧特曼今天聲明的負面反應來看,這並沒有消除任何這種猜測。
截至目前,該公司正在推進下一個版本:語音助理ChatGPT-4o 。