馬斯克開了場誓師大會:我們就是OpenAI競爭對手
“當然,我們是競爭對手!”談及對OpenAI、Google的態度時,新任AI公司老闆的馬斯克這樣說道。繼7月12日晚宣布成立新公司xAI後,馬斯克沒有讓大眾等待太久。7月15日,馬斯克在Twitter語音聊天室裡組了個“談心會”,和xAI成員們一起聊xAI的進展,包括使命、目標以及具體分工。
公眾們也參與到聊天會中。xAI對其“如何使用Twitter的數據”、政府監管AI的邊界等問題也做出了回應。總體來說,這場發布會可以說是信息量滿滿,xAI反主流技術路徑、擁抱公眾監管的形像已經逐漸浮現。
一方面,12人組成的AI“復仇者聯盟”,現在已經分工明確——
畢業於哈佛數學系的華人聯創楊格(Greg Yang),會延續專業特長,主要對深度學習的數學和科學問題進行研究;
出身OpenAI的Kyle Kosic,在xAI負責分佈式系統的研發;
另一位華人、出身DeepMind的張國棟,在xAI則負責市場營銷。
xAI的12名成員。圖源:xAI官網
另一方面,與其說談心,這更像是一次誓師大會。“我們應該小心,AGI的出現看起來是不可避免的。我們有兩個選擇,要么只是旁觀者,要么參與其中。”馬斯克表示。
xAI就像現有AI模型的“復仇者聯盟”——會上,成員們不遺餘力地批判了ChatGPT等主流模型並不理解現實,而成員們的野心則和著名AI科學家楊立昆(Yann LeCun)一樣,希望創建基於“現實世界”的AI模型。
馬斯克也提及了對AGI的態度,給出了一個大概時間表:大約到2029年,AGI(通用人工智能)才能實現。他也補充,AI領域多一點競爭對手是好事,因為“可以讓AI公司更加誠實”。xAI的成立並非想創造AI競爭對手,而是在創造更好的AI這件事情上“做自己的事”。
但具體要怎麼創造更好的AI?從多位成員們的專業背景中可以預見——通過數學。用xAI成員吳宇懷(Tony Wu)的話來解釋,這條路徑是將自然語言和現實世界轉換成數學形式,再進行機器學習。
會上,xAI一號員工Igor Babuschkin也放出了產品預告:新產品正在研發中,未來幾周可能會披露更多細節。
而與聽眾的交流過程,讓人不禁夢迴OpenAI創始人Sam Altman的國會聽證會現場。交流會上的首個問題,就直指xAI“探尋宇宙真相”的願景是不是假大空。
xAI會如何使用Twitter的用戶數據,也成了觀眾關心的議題。當被聽眾問到政府監管xAI的邊界時,馬斯克反問:“你是美國政府的工作人員嗎?”
比起政府的監管,馬斯克認為無政府組織和公眾的監督更能保持公允,即從“AI是否給出了真相”這一維度出發。會議最後,他開了個玩笑:公眾參與xAI決策的前提是自證人類,“在未來,銀行可能會收取一些日常費用,比如10美元,來提高你的人性。”
當然,和OpenAI的愛恨情仇沒有被落下,馬斯克談及了當年創立OpenAI又離開的故事。他也側面回應簽署叫停GPT-5聯名信的理由:如果花費額外的6個月或者一年來確保AGI安全,那我覺得是需要的。
關於馬斯克的xAI和OpenAI,Twitter網友製作的梗圖。圖源:Twitter
在問答會中,xAI成員們提出了以下幾個觀點:
人均計算資源數量是項目成功與否的一個重要指標。我們希望有一個相對較小並且擁有大量專業知識的團隊,讓最優秀的人獲得大量自主權和資源對他們的想法進行嘗試。
在xAI,我們必須允許AI說“它認為是真的”的東西,而不是欺騙性的,或“政治正確”的。
真相不是流行的內容。訓練模型過程中,模型預測內容的下一個詞來自數據集,如果這個數據集來自互聯網,那麼它可能會給你一個流行的、但可能錯誤的答案。所以你必須把答案建立在現實基礎上。
總體而言,不應該特別地放緩AGI的到來,或者說這種放緩不應該持續很長時間。如果是為了顯著提高安全性,那麼稍微放緩速度可能是值得的。
當前的模型只是模仿訓練它們的數據,我們真正想做的是改變範式,創造真正能發現真相的模型,而不是僅僅重複它們從人類的新發現中學到的東西。
xAI的Twitter Spaces問答會。圖源:截圖
整場問答會圍繞xAI的願景、組織形式、商業模式、監管模式進行了討論。以下是36氪對部分問答的整理(除註明觀眾外,交流人物均為xAI成員,問答內容略經36氪編輯):
xAI和OpenAI、Google是對手嗎?
聽眾:隨著xAI入局,周圍有了很多關於競爭的討論。你們將自己視為OpenAI和Google Bard之類公司和產品的競爭對手嗎?還涉及將自己視作另一個賽道的參與者?
Elon Musk:當然,我們是競爭對手。
聽眾: xAI的業務未來會To C還是ToB?
Elon Musk:我們才剛剛成立,在業務上還處於萌芽階段,所以我們需要一些時間做出真正有用的東西。我們希望為公眾、消費者、企業或者任何人提供有用的工具。
以及就像Kyle(Kyle Kosic,xAI成員)之前(在自我介紹中)提到的,未來大家肯定不希望只有一家公司佔據AI領域的主導地位,AI需要一些競爭,競爭能使公司變得誠實。
聽眾: xAI計劃如何使用Twitter的數據?
Elon Musk:許多AI組織都用一手數據進行訓練,基本上是非法的。
一周前,Twitter帶有互聯網檔案的商業應用程序被不少組織瘋狂抓取,這也是我們大規模限制了用戶服務的原因,很抱歉給大家帶來了不便。
所以xAI只會使用公共貼文,而不會使用任何私人貼文進行訓練。同時,Twitter只是文本訓練的優秀數據集,但圖像和視頻的訓練也同樣重要。
某種程度上,AI會用完人類創造的數據,我認為AI最終會自己產生內容並且自己評估內容,這是我所認為的AGI的路徑。
數據質量非常重要,好比讀有史以來最偉大的小說,比我讀一堆蹩腳的小說要好得多。
聽眾:特斯拉有自己的定制芯片團隊,xAI的算力會來自這個團隊,還是使用英偉達的現貨?
Elon Musk:我不會把特斯拉生產的任何圖形處理器(GPU)稱作A100或H800的等價物。考慮到汽車的性能,我們完整設計了芯片Hardware 3,幾年後還會有Hardware 4,運行效率將會是Hardware 3的3-5倍。
我認為如果每天的訪問量達到數十億次,推理效率和節能優化是極其重要的。特斯拉的超級計算機Dojo在減少推理能耗方面有顯著優勢,但在內存帶寬上有一定限制,所以無法很好地優化運行LLM(大語言模型),但在圖像處理上效果很好。
我們正在採取多步訓練的方式,緩解內存帶寬的限制,以便Dojo能夠有效運行LLM以及其他形式的AI訓練。
如今算力極度短缺,可能大約一年內電壓互感器(Potential Transformer,用於變換電壓的儀器)會短缺,再接著一到兩年內電力也會短缺——這就是AI訓練到推理的趨勢。所以提高算力利用效率也很重要。
聽眾:所以考慮到節省能耗,xAI會考慮和特斯拉合作嗎?
Elon Musk:很明顯,xAI和特斯拉的關係是上市公司和股東。如果更進一步,xAI和特斯拉的合作對特斯拉也有利,自動駕駛功能實際上也是為了理解現實世界的AI。我對特斯拉在理解現實AI(Real World AI)方面的進展感到樂觀,不過幫助實現這一目標的聰明人類越多越好。
如何“理解宇宙”?
Ross Nordeen(xAI成員):很多人問“理解宇宙”是否是一個雄心勃勃但不夠具體的目標?
Elon Musk:我不同意這個觀點。我認為我們現在有太多懸而未決的問題是非常基本的,比如能量。我們有可以預測事物的靜態模型,但仍然存在許多關於引力的性質的疑惑。
比如你剛才提到“費米悖論(注:該悖論主要討論外星人是否存在)”,這個理論也可以表述為假設人類已經存在了140億年,為什麼仍然沒有能夠證明外星人存在的證據——因為我和太空的緊密聯繫,人們經常問我這個問題。
而事實上,我們也無法排除人類至少在太陽系或者銀河系某一部分,就是唯一的生命體。
值得注意的是,地球上“思想(consciousness)”的進化大概有45億年的歷史(注:科學家在45億年前的隕石中發現了遺傳物質核糖)。當太陽逐漸膨脹,直到地球的溫度被加熱到足以讓海洋沸騰,地球將變得和金星一樣,無法讓我們已知的生命生存,可能只需要5億年。如果思想存在的時間比地球長10%,那麼思想就會完全發展,但從宇宙的角度來看,我們所剩的時間窗口很狹窄(只有5億年)。
從本質上而言,知道到底發生了什麼是很棒的一件事。所以我想大家可以把xAI的使命宣言重新表述為“到底發生了什麼(what the hell is really going on)”(笑),這是我們的目標。
馬斯克官宣xAI成立,並提到願景是“理解真實”,xAI官網的slogan則為“理解宇宙”。圖源:Twitter
Toby Pohlen(xAI成員):使命宣言代表的是我們的報復。當然在短期內,我們正在研究更容易理解的深度學習技術。
但我認為,我們在做任何事的同時也應該永遠記住,我們不僅應該創造(build),還應該理解(understand),所以追求科學對我們正在做的事情是很重要的,也包含在對我們使命的理解中。
Greg Yang(xAI聯創):我還想補充一點。我們基本上一直在談論如何創造一個真正聰明的代理(Agent)來幫助我們更好地理解宇宙,就像指引方向的北極星一樣。
但我發現,新的數學網絡也可以開闢新的思維方式,比如思考基礎物理,或者其他類型的物理現實。換句話來說,當我們試圖通過數學的角度更好地理解運作模式,也能得出對現有問題的有趣和有意義的觀點和理論。當然,現在這一切都是推測,不過數學也是理解宇宙的另一個視角。
Igor Babuschkin(xAI成員):我們所謂的“理解宇宙”,不僅僅指的是我們想要理解宇宙,而是我們也想讓你更容易理解,同時也讓大家對現實擁有更明顯的感知,並且更好地學習和利用互聯網上的知識。所以我們熱衷於在早期發布工作和產品,讓公眾一起參與進來。
Elon Musk:當然,如果我們最後不了解宇宙,也不會告訴其他人(笑)。
目前AI領域數量級的氾濫很嚴重。即便有10兆瓦的GPU,AI也沒法寫出比優秀人類更好的小說——AGI基本上是用野蠻堆數量級的方式去強迫逼近的,但實際上仍然沒有成功。這是因為我們不知道正確答案是什麼,所以要進行大規模計算。
澄清一下,這不代表xAI打算在筆記本電腦就就實現AGI,我們還是會使用超級計算機。不過隨著我們更好地理解現實的基本問題,暴力計算的比例將會減少。
Igor Babuschkin(xAI成員):在我之前參與的所有項目中,人均計算資源數量是項目成功與否的一個重要指標。所以這也是我們真正想要優化的東西。我們希望有一個相對較小並且擁有大量專業知識的團隊,讓最優秀的人獲得大量自主權和資源對他們的想法進行嘗試——這是我屢試不爽的經驗。
Toby Pohlen(xAI成員):關於xAI計劃如何執行我還有一件事要說明,正如Igor所說的,過去人均計算資源數量的機制運行得非常好,我們可以有一個相對較小的團隊,可以相對不受約束地運行。
目前我們已經有了可以快速迭代想法的文化,成員間可以互相挑戰,快速把成果分享。現在我們已經在開發產品的第一個版本,希望在幾週後能夠分享更多關於產品的信息。
監管該如何進行?
聽眾: ChatGPT在使用過程中出現了很多奇怪的答案,甚至對真相進行了編輯,以此引導公眾。這是否是你創立xAI的主要動機之一?
Elon Musk:我認為訓練“政治正確”的AI是很危險的。換句話說,在xAI,我們必須允許AI說“它認為是真的”的東西,而不是欺騙性的,或“政治正確”的。
顯然,這會遭致一些批評。但我認為唯一的出路是反向追求真相,而不是強化“政治正確”。
若是試圖找出《2001:太空漫遊(2001:A Space Odyssey)》中故事的癥結所在,你就會發現“哈爾9000型電腦”(注:太空漫遊中控制太空船的電腦)所說的都是謊言。所以,AI在較少的訓練場景中不會設定通常無法實現的目標,但這也恰恰強迫AI為滿足設定的目標而說謊。
聽眾:政府應該深度監管AI嗎?
Elon Musk:我覺得最好的監管可能出現在非政府組織中,但這件事我們應該謹慎一些,但我不知道正確的答案是什麼。
我們將用法律反對任何我們認為不符合公眾利益的事情。據我所知,我們是唯一一家這樣做的社交媒體公司。
Igor Babuschkin(xAI成員):我覺得這取決於情況的嚴重程度。如果我認為公共利益很大程度上是正確的,我願意冒進監獄的風險。
從更積極的層面來看,你希望AI如何讓你受益會影響你對AI項目的態度。
Elon Musk:在AGI上,我思想鬥爭了很久,我既抗拒又努力讓AGI發生。我應該分享一些關於OpenAI的背景故事。OpenAI存在的原因是Google收購了DeepMind。我曾經是拉里佩奇(Larry Page,Google創始人)的密友,但他沒有把AI安全放在心上,至少在DeepMind上不夠認真。
Google和DeepMind合併後,他們就擁有了世界上3/4的AI人才,這也打破了AI競爭的平衡。所以,大家需要一個開源非營利性組織。
如今非常諷刺的是,OpenAI想在三年內籌集1000億美元,為此他們必須賺很多錢來吸引投資者,所以他們反而在相反的方向上做了和Google一樣的事。
我的意思是,我們應該小心,AGI看起來是有可能發生的事,我們有兩個選擇,要么成為旁觀者,要么參與其中。作為旁觀者,我們可能會因為過度訓練而影響結果,作為參與者,我們無意創造競爭對手,比OpenAI、微軟更好的選項有很多。但只要我們還能優化AI,我們就做我們的事。
聽眾: xAI構建的是一個擁有物理世界知識的AI嗎?
Igor Babuschkin(xAI成員):在Twitter上我們有社區節點,本質上是一個非常驚人的數據集,可以用於訓練語言模型來嘗試驗證有關用戶的事實。因為我們知道當前的技術有很多弱點,比如不可靠、產生幻覺,所以你必鬚髮明特定的技術來對抗它,並確保我們的模型更真實,有更好的推理能力。
這就是我們引進相關領域的專家,尤其是數學領域,因為我們真正關心的東西可以在數學上得到驗證。一旦我們擁有了驗證的能力,我們再將模型擴展到更模糊的領域,也就是沒有數學真理的領域。
Elon Musk:我認為真相不是流行的內容。訓練模型過程中,模型預測內容的下一個詞來自數據集,如果這個數據集來自互聯網,那麼就會出現相當大的問題,因為它會給你一個流行的、但可能錯誤的答案。所以你必須把答案建立在現實基礎上。
Igor Babuschkin(xAI成員):當前的模型只是模仿訓練它們的數據,我們真正想做的是改變範式,創造真正能發現真相的模型,而不是僅僅重複它們從人類的新發現中學到的東西。
Elon Musk:我認為總體而言,不應該特別地放緩AGI的到來,或者說這種放緩不應該持續很長時間。如果是為了顯著提高安全性,那麼稍微放緩速度可能是值得的。如果花費額外的6個月或者一年來確保AGI安全,那我覺得是需要的。
在不同發展階段,風險也會發生變化,並且在所有階段都是流動的。與其說是監管機構在指導特斯拉和SpaceX,不如說這是我們內部必須思考的問題,然後去證明監管機構的合理性。
Manuel Kroiss(xAI成員):監管迫使我們更多地思考安全性,但如果引入外部監管,往往會暴露我們內部的業務進展,同時外界對我們做的任何事會有各種反應。我想問xAI是否希望與更多外部實體合作?以及合作的哲學是?
Elon Musk:我當然支持與他人合作。這個問題聽起來,像是一些大型上市公司對內部業務暴露的尷尬和對被起訴的擔憂,所以大公司法律部門的人數與規模成正比。目前xAI法律部門的人數為0,也將永遠是0。所以我確實支持與他人合作。
Igor Babuschkin(xAI成員):在分享會結束前,最後想問Elon。假設xAI是成功的,無論人類的水平是否超越AI,你覺得讓公眾參與公司的決策是合理的嗎?
Elon Musk:我們對批評性反饋非常開放,我對公眾的意見表示歡迎。事實上,我喜歡(發布會)上一條Twitter的原因是因為Twitter上有很多負面反饋,這有助於自我意識的縮減。
我現在能夠想到的最好的事是,任何想在xAI的未來投票的人都應該被允許,前提是你可以驗證你是一個真正的人類(笑)。在未來,銀行可能會收取一些日常費用,比如10美元,來提高你的人性(笑)。