伊隆馬斯克透露計畫製造世界上”最強大”的10萬級NVIDIA GPU AI集群
隨著全球人工智慧產業竭盡全力從英偉達(NVIDIA)獲得珍貴的晶片,並在開發最先進人工智慧模型的競賽中超越微軟支持的OpenAI,埃隆-馬斯克(Elon Musk)分享了有關他計劃建立一個GPU 叢集來訓練xAI 的Grok 人工智慧模型的最新細節。
根據馬斯克的說法,在與甲骨文公司分道揚鑣以加快人工智慧開發進度之後,xAI 已經決定只依靠自己來建立”世界上最強大的訓練集群」。甲骨文向xAI提供了2.4萬個英偉達Hopper GPU,用於訓練Grok 2人工智慧模型,馬斯克透露,該模型將於8月發布。
馬斯克分享了xAI的10萬GPU集群的最新細節,以回應一份媒體報道,該報道概述了這家人工智慧公司與甲骨文公司就擴大現有協議的談判已經結束。根據目前的協議,xAI 使用24,000 個英偉達的H100 GPU 來訓練Grok 2 人工智慧模型。根據外媒報道,甲骨文公司也正在與微軟合作,為其提供由10 萬個英偉達Blackwell GB200 晶片組成的集群,這些晶片是市場上最新的人工智慧處理器。
馬斯克分享說,xAI 正在內部建立其10 萬GPU 人工智慧系統,以實現”最快的完成時間”。他認為,這是”追趕”其他人工智慧公司的必要條件,因為他認為,”比其他任何人工智慧公司都快”對於xAI的”基本競爭力”非常重要。
馬斯克在上月初的聲明中透露,xAI 計劃利用英偉達公司的Blackwell 晶片打造一個價值數十億美元的系統。他概述說,該系統將使用大約30 萬個B200 GPU。結合英偉達公司執行長黃仁勳分享的價格細節,該系統的成本可能高達90 億美元。
馬斯克認為,透過建構H100 系統而不是與甲骨文公司合作,xAI 可以實現”最快的完成時間”。這位高層認為,該系統將於本月開始訓練,並將成為”世界上功能最強大的訓練集群”。在Grok 或ChatGPT 等模型準備好回應查詢之前,它們需要在現有資料集上接受訓練。這些資料集使它們能夠根據已經學到的知識,從數學角度預測對使用者問題的回應內容。
當人工智慧產業的主要參與者在2024 年升級並推出新模型時,xAI 在這方面一直相對沉默。現在,馬斯克透露,Grok 2 將於下個月推出,因為該模型的大部分開發工作已經完成,xAI 正在進行最後的調整和錯誤修正。
人工智慧晶片炙手可熱,並在不到一年的時間內推動英偉達成為全球第三大最有價值的公司。 Facebook 的母公司Meta 分享了其計劃,即在2024 年底之前累積35 萬個這樣的晶片,以配合其人工智慧平台。 Meta、Google母公司Alphabet、微軟支援的ChatGPT 和亞馬遜的Anthropic 都是全球領先的人工智慧軟體公司。