Ilya的新創業夥伴是個科技加強版的Sam Altman?
Ilya去哪了?這個自去年年底OpenAI上演宮鬥之後,所有關心AI的人都在問的問題,有了最終的答案。Ilya Sutskever正式宣布了他創辦的新公司:Safe Superintelligence Inc. (SSI),只有一個目標和一個產品:安全的超級智慧。
SSI是一家純研究機構,將透過在AI系統中嵌入工程突破來實現安全,而不是依賴臨時加上的安全措施,近期沒有銷售AI產品或服務的打算。
Ilya曾多次在公開場合表示,他的主要工作是弄清楚如何讓「超級智慧」安全可控。換句話說,SSI的成立的目的,就是Ilya希望在沒有OpenAI、Google和Anthropic等競爭對手所面臨的干擾下繼續他的工作。
安全的超級智慧在某種程度上是對最初OpenAI「初心」的回歸,OpenAI最初的目標也是開發安全且有益的人工智慧,不受商業和競爭壓力的干擾,確保AI技術的安全性和對人類的長期利益。
然而,隨著時間的推移,OpenAI和其他公司在商業化和競爭壓力下,不得不平衡安全與市場需求。Ilya以及OpenAI對齊團隊成員的離開,核心原因也是OpenAI內部對安全的優先順序產生了不可調和的分歧,透過SSI,他試圖透過自己的公司解決這些問題。
Daniel Gross在2018年參加YC的播客節目錄製
新的聯創,科技加強版Sam Altman?
SSI的另外兩位共同創辦人是Daniel Gross和Daniel Levy,Daniel Levy是Ilya在OpenAI的老下屬,兩人共同參與了多個重要的AI項目,他也是OpenAI優化團隊的領導者,在GPT-4的架構和優化方面享有盛譽。
而Daniel Gross的經歷則更具戲劇色彩,Gross 1991年出生於以色列耶路撒冷,熱愛編程的他在家鄉度過了人生的前十八年,本來打算入伍加入以色列國防軍,但在一次前往舊金山的入伍前旅行中,他陷入了矽谷的創業熱潮。 2010年Gross被Y-Combinator錄取,獲得資助,當時他是YC有史以來最年輕的創始人,他也因逃避以色列國防軍服役,再未返回以色列。
Gross隨後推出了搜尋引擎Greplin,後來更名為Cue。 2013年Cue被蘋果收購後,Gross也加入蘋果,領導人工智慧工作。 2017年Gross加入YC擔任的合夥人,專注於人工智慧,並創建了專門的「YC AI」計畫。
2021年,Daniel Gross與Github前CEO Nat Friedman成立了早期創投基金AI Grant。 2023 年,AI Grant部署了自己的運算集群Andromeda,這是一個由2512 個H100 GPU 組成的超級電腦集群,供其投資組合中的新創公司使用。
Andromeda可以在約10天內完成Llama 65B模型的訓練
身為投資人,Gross的投資組合可謂亮眼,他投資了Uber、Coinbase、Figma、GitHub、Airtable、Notion、CoreWeave、Character.ai、Perplexity.ai、Pika、Suno等公司。
Gross的投資組合顯示了對科技業整體發展趨勢的全面理解,經常在具有顛覆性潛力的項目上下注。從投資選擇來看,Gross特別關注技術驅動的創新以及AI和軟體領域,傾向於支持那些能夠改變市場格局、具有高成長潛力的新創公司,特別是那些能夠對人類日常生活和工作方式產生深遠影響的創新解決方案的公司。
在這家新成立的公司中,Ilya擔任的角色是首席科學家,負責革命性突破,而Gross在某種意義上取代了Altman的角色。
對比兩人,我們也可以看到一些明顯的共性和差異。 Gross和Altman兩人都「師出」Paul Graham,與YC頗有淵源,在科技創業和投資領域有豐富的經驗,在矽谷擁有廣泛的人際網絡和資源,適合擔當一家公司的頭面人物。
此外,相較於更加“長袖善舞”,跑遍全世界會見各地的立法者、監管者和投資人的Altman,Gross在氣質上與Ilya更接近,兩人都是技術天才型人物,他對技術的理解可能為公司在策略、技術方向和資源整合方面提供關鍵支援。 Altman在OpenAI商業化上的野心路人皆知,而Gross與Ilya的合作關係可能更適合專注於AI的安全性和研究本身,Gross在商業與投融資方面的經驗,也補足了Ilya的短板。
所以Gross的加入,有點像是Ilya離開OpenAI之後,找到了一位新的Sam Altman,只是不知道Altman內心會怎麼想?
“Daniel Gross,別搞砸了”
這並不是OpenAI第一次出現員工因為安全問題的分歧而離去創辦自己的AI公司。 2021年,前OpenAI員工Dario和Daniela Amodei兄妹創辦的Anthropic,也致力於比業界競爭對手更注重安全性,而Ilya的SSI看上去更加純粹,也更具神秘感。
在AI產業中,有兩大對立陣營:謹慎派和創新派。一方遵循矽谷“快速行動,打破常規”的倫理,稱為“有效加速主義”,而另一方則希望確保所開發的技術足夠安全,在實驗室環境中經過充分測試,並在釋放具有顛覆性的AI技術之前就設定適當的防護措施,被稱為「有效利他主義」。兩方都希望AI技術的利益能夠惠及全球所有人。
llya一直是人工智慧領域的安全派,這一點和他的導師Geoffrey Hinton類似,Hinton從Google辭職,原因之一就是為了對AI安全提出警告,並聲稱「對畢生工作感到後悔和恐懼」。近年來,llya的工作重點一直放在超級對齊上,去年llya在OpenAI內部創建了一個超級對齊團隊,旨在確保未來的人工智慧技術不會對人類造成傷害,他越來越擔心AI可能變得危險,甚至可能毀滅人類,SSI的成立讓他可以專注在避免這件事的發生。
llya表示,雖然大型語言模型在人工智慧領域佔據主導地位,並將在SSI中扮演重要角色,但他們的目標是開發更強大的系統。他想追求的系統將具有更廣泛的用途和能力,就像一個能夠自主開發技術的龐大超級資料中心,所以必須確保安全。
Vault-Tec背後隱藏著豐富的故事線和陰暗實驗。
Safe Superintelligence Inc這個名字,聽起來就像是來自以核戰後的末日世界為背景的《輻射》系列遊戲,不僅是因為Ilya提到了SSI要追求的是“核安全”級別的安全,遊戲中經常涉及的一個主題也是科技激進發展帶來的潛在風險和道德困境。
這種使命感也與《異塵餘生》中的公司相似,遊戲中一家名為Vault-Tec的公司致力於保護人類在核戰中的生存,Safe Superintelligence Inc的名字也傳達出明確的使命。正如在《異塵餘生》中常對公司背後的故事和目的披上一層神秘感一樣,Safe Superintelligence Inc也給人留下廣闊的想像空間。
Vault-Tec公司在遊戲中以其建造避難所而著稱,這些避難所表面上是為了保護人類免受核戰爭的毀滅,但實際上往往隱藏著更陰暗的目的和實驗。
即使是最具前瞻性和保護目的的科技企業,也可能因為內部實驗、決策或外界環境的變化而產生意想不到的後果。 SSI使命是否能真正實現,或者是否會在實際操作中偏離初衷,仍然值得關注。
這件事可能更多取決於Daniel Gross會不會成為另一個Sam Altman。