GPT-5倒數奧特曼踢走Ilya得逞宮鬥驚人內幕再曝光
解散Ilya的超級對齊團隊之後,奧特曼再造了一個新的「安全委員會」。 OpenAI稱正訓練離AGI更近一步的下一代前沿模型,不過在這90天評估期間,怕是看不到新模型發布了。 「OpenAI下一代前沿模型,正在訓練中」。在經歷了幾週前Ilya、安全團隊負責人Jan Leike離職後,超級對齊團隊也被OpenAI解散。
今天,由奧特曼領銜的OpenAI全新的「安全與保障委員會」官宣成立。
不僅如此,OpenAI預計,正在訓練的下一代旗艦模型,將帶領他們通往AGI的道路上邁向新的水平。
OpenAI研究科學家,德撲之父發文確認了新模型訓練的消息。
安全委員會的成立,下一代模型的佈局,一切說明了OpenAI已非常接近AGI。
雖然這是板上釘釘的官方實錘,但只是含糊不清地用了一句“前沿模型”,並沒有確認會不會是GPT-5或其他型號。
模型官宣引起的討論完全搶走了新成立安全委員會的風頭(不知道是不是奧特曼故意安排的)。
下一代機型全網大猜想
GPT-4之後,全網對於OpenAI發布的下一代旗艦模型臆測了很久。
不過,這次,他們提到的前沿模型,究竟是什麼?
幾天前,巴黎VivaTech科技活動上,OpenAI開發者體驗負責人暗示了,今年一定會發新模型“GPT Next”,而且網友猜測預計在11月發布。
大多數網友紛紛認定,這次可能就是GPT-5了。
不過,又有人指出,在今年4月的時候,GPT-5早已開始了紅隊測試。
這完全說明了GPT-5的訓練早已完成,OpenAI正在研究的下一代前沿模型絕對不可能是GPT-5。
因此,他們訓的是GPT-6無疑了。
另一位爆料者Flowers更確認了這一點,OpenAI當然沒有剛開始訓練GPT-5。
同時,他也堅持表示,也不會有GPT-6。
當有人問道,為何這麼確信OpenAI沒有GPT-6時,Flowers首次透露出一個新奇的點子:
「因為大模型的發展已經接近它們的極限」。
儘管可以透過使用工具、增加功能、提升多模態能力,擴展上下文等方式來改進LLM,但這終將不是長久之計。
但Reddit上有人發文否認了GPT-5的猜想,甚至新模型應該不屬於GPT家族,而是Q*,理由如下:
– GPT-5從12月/1月就開始訓練,大致上是目前GPT-4o的底層架構,不可能再發布一次
– 如果擴展到GPT-6,則需要儲備更多的算力
– 要真正實現LLM的邏輯推理和長期任務規劃能力,就需要訓練一個新模型來操作LLM,而OpenAI一直在研究Q*來解決這個問題
樓主也提出了Q*方法的大致原理:
– 先提出一個複雜的Agent任務
– 讓GPT產生數百萬個潛在解決方案,以樹狀結構表達,樹中每一個節點代表Agent推理的一個步驟
– 讓GPT對每個解決方案評分
在已經有強大GPT模型的基礎上,重複這個過程就能創造出龐大的資料集,用來訓練新模型指導LLM完成長期的推理或規劃任務。
這種猜想甚至比GPT-5更激動人心,留言區就有人回覆說「像Q*這樣的東西即使不大,也能改變整個遊戲」。
也有評論力挺這種說法,因為OpenAI常談到Agent。現在可能無法使用內建的邏輯推理Agent來訓練LLM,但用外置的新模型對LLM進行「指導」是可行的。
算力體量有多大?
下一代前沿模型雖未知,不過在微軟Build大會上,CTO Kevin Scott表示,微軟正在為OpenAI打造「鯨魚」等級的超算。
當時訓練GPT-3使用的是「鯊魚」等級的算力,GPT-4則用上了「虎鯨」級的算力。
90天倒數計時開始,全力打造AGI
除了奧特曼本人,「安全與保障委員會」的董事會成員還有主席Bret Taylor、Adam D’Angelo、Nicole Seligman,共四個人。
「安全與保障委員會」的首要任務將是,在接下來的90天內,評估改善OpenAI現有的AI安全和保障的流程措施。
90天期滿後,他們將與全體董事會提交報告。
經過董事會的審查之後,OpenAI將公開分享所採納的改進措施。
因此,有理由得出結論,無論下一代「前沿模型」是什麼,至少它在90天內不會發布。
委員會中,除了董事會成員,還包括:
OpenAI的技術和政策專家Aleksander Madry(Preparedness團隊的負責人)、Lilian Weng(安全系統負責人)、John Schulman(對齊科學負責人)、Matt Knight(安全負責人)和Jakub Pachocki(首席科學家)。
此外,OpenAI還聘請了外部網路安全和技術專家,例如Rob Joyce、John Carlin,來提供諮詢意見。
不搞“超級智能”
奧特曼先前,曾對外公開宣稱,OpenAI終極目標是打造一種比人類先進的「超級智慧」。
他甚至表示,2023年自己有一半的時間都在研究「如何打造超智慧」。如今這項說法,卻被另一位高階主管否認。
OpenAI負責全球事務的副總Anna Makanju在接受FT採訪中提到:
我們的使命是打造AGI,並非「超級智慧」。因為超級智慧是一種比地球上人類高出多個數量級的技術。
不過,她也補充道,「AGI還不存在,我們在確保安全前,不會發布這樣的技術」。
委員會並非獨立
有些人批評到,新的委員會完全由OpenAI的「自己的高階主管」組成,這意味著對該公司安全措施的評估,將不會是獨立的。
還有網友調侃道,這不都是由奧特曼本人組成的安全委員會。
之所以會出現這樣的聲音,是因為OpenAI董事會去年發動的政變,成為一直以來爭議的來源。
2023年11月,奧特曼被董事會解僱,理由是「他並不坦誠」。
而最近,由兩位前董事會成員在TIME期刊上撰寫的文章中,更是對奧特曼對OpenAI的治理提出了嚴厲的批評。
她們表示,Ilya和其他安全對齊團隊人員的離開,預示著OpenAI「自治實驗」的前景不妙。
團隊重組
在Ilya Sutskever和負責人Jan Leike離職後,許多人愈加擔憂,OpenAI如何管理類AGI技術的潛在危險。
彭博稱,Ilya走後,OpenAI將他原先團隊中剩餘的成員,整合到了更大的研究部門,而不是保留獨立的形式。
同時,OpenAI聯創John Schulman也在負責監督超級對齊研究。
作為職務的擴展,他被授予了一個新頭銜——對齊科學負責人(Head of Alignment Science)。
OpenAI宮鬥內幕曝光
同時,針對奧特曼的輿論仍在持續發酵。
前董事會成員Helen Toner在最近的播客頻道TED AI Show上揭露了一些2023年底OpenAI「宮鬥風波」的情況。
她解釋了董事會決定罷免奧特曼的原因——隱瞞訊息,歪曲事實,並公然向董事會撒謊。
例如2022年底ChatGPT發佈時,董事會完全沒有得到消息,而是在Twitter上才第一次看到。
此外,他一直宣稱自己在公司中沒有任何經濟利益,也從沒有告知董事會他擁有OpenAI啟動基金。
奧特曼在AI安全方面的表現也讓Toner不安,因為他只會向董事會透露「關於公司正在實施安全流程的少量、不準確的資訊」。
這意味著,董事會沒有辦法獲知這些流程的真實情況,也無從實施有效的監督與指導。
而且,當她的論文中包含了對奧特曼的負面評價時,他開始不擇手段,試圖將Toner趕出董事會。
結合先前Twitter網友歷數的“七大罪”,奧特曼帶領下的安全團隊,真的能讓下一代車型安全可靠嗎?