英偉達力挺這家“AI 算力黃牛”4年估值560億
制約AI 人工智能發展最大的桎梏是什麼?如在幾年前,這個答案可能五花八門。但在大模型盛行的當下,這個問題只有一個答案——算力不夠!或者,換句話說,英偉達專用的AI 算力芯片不夠。誰控制了英偉達的AI 芯片,誰就控制了AI 的未來。從囤Web3“礦卡”,到囤AI 算力卡,CoreWeave“賭運”亨通。
現在,有這麼一家公司,手中掌握了成千上萬塊英偉達的AI“算卡”,客戶涵蓋了OpenAI、微軟等眾多AI 巨頭。
作為“AI 算力黃牛”,這家名為CoreWeave 的公司,在4 年時間就將公司估值做到了80 億美元。拿到英偉達的獨家投資之外,CoreWeave 還以手中的英偉達芯片做抵押,從黑石Blackstone、Coatue 等頂級機構獲得了23 億美元的債務融資。
沒什麼能阻擋CoreWeave 的瘋狂擴張,它到底是怎麼搞定英偉達、從一家加密幣“挖礦”公司,搖身一變成為AI“算力基建”巨頭的?
從“礦卡”到“算卡”
CoreWeave 的初創團隊由三人組成,分別是Michael Intrator,Brian Venturo 和Brannin McBee,三人最初在金融領域工作,經營過對沖基金、家族辦公室。
當年他們還在紐約管理基金時,加密貨幣挖礦熱潮還未消退,最初只是為了賺取額外收入,他們購買了第一塊GPU,隨後越買越多,華爾街的辦公桌上堆滿了GPU。
“2016 年,我們購買了我們的第一塊GPU,插上電源,將其放在了俯瞰東河的曼哈頓下城辦公室的台球桌上,然後挖掘了以太坊網絡上的第一個區塊。 ”CoreWeave 首席執行官Michael Intrator,在一篇2021 年的博客文章中如此回憶道。
很快,在2017 年,他們將副業正式變成了一家公司,公司名字最初與加密貨幣相關,後來才改名叫CoreWeave。在選擇告別華爾街時,如同矽谷大佬都喜歡在車庫裡創業那樣,他們將GPU 硬件搬進了一個車庫,不過這個車庫不在西海岸的矽谷,而是在東海岸的新澤西郊區,屬於其中一名創始人的祖父。
CoreWeave三名聯合創始人Michael Intrator(左)、Brian Venturo(中) and Brannin McBee(右)|CoreWeave
在過去十年中,GPU 是加密貨幣、人工智能技術熱潮的重要引擎。在2018 年底,CoreWeave成為北美最大的以太坊礦工之一,手握超過五萬塊GPU,佔以太坊網絡的1% 以上。
期間,幾人也開始了解到其他公司對GPU 資源的渴求。他們同時認識到,在加密貨幣領域並無持久競爭優勢,因為市場競爭激烈,受電力價格影響大。
當2018 年和2019 年加密貨幣價格暴跌時,他們決定多元化經營,進入其他領域,這些領域比較穩定,但也需要大量GPU 計算。他們關注人工智能、媒體娛樂和生命科學三大領域,並從2019 年起,專注於購買企業級GPU 芯片組,構建專門的雲基礎設施,圍繞英偉達的芯片調整業務。
隨著新業務步入正軌,以太坊挖礦業務漸漸邊緣化。轉型的決定證明是正確且幸運的,幾個創始人都沒有料想到即將到來的AI 浪潮之熱,讓CoreWeave 逐漸從一個小辦公室擴張成遍布全國的數據中心,以對應不斷膨脹的AI 市場需求。
據其中一名創始人披露,2022 年,CoreWeave 收入約有3 千萬美元,預計2023 年將超過5 億美元,增長超10 倍,並且已經簽署了近20 億美元的合同。今年宣佈在德州投資16 億美元建數據中心,併計劃在年底前擴展至14 個數據中心。
AI “電網”
在CoreWeave 成立短短幾年後,用於AI 的GPU 成為了全球最寶貴的資產之一,就像伊隆·馬斯克等人調侃的,現在,購買GPU 比買藥還難。隨著生成式AI 點燃市場,對GPU 的需求急劇增加,而CoreWeave 正好位於為AI 公司提供所需資源的有利位置。
作為一家云服務提供商,CoreWeave 提供高性能計算資源的租賃服務,主要面向需要大量算力的客戶,模式是基礎設施即服務,按小時出租GPU,客戶只需要按使用時間和計算資源量來支付費用,大客戶還有定制設施,旗號是“比傳統雲提供商快35 倍,成本低80%,延遲低50%”。該公司專注於高性能計算服務,而不像一般雲服務商還提供存儲、網絡等多種服務。
去年,就在Stable Diffusion 和Midjourney 等發布之際,CoreWeave 的高管們購買了大量英偉達最新的芯片。後來見到ChatGPT 發布,他們意識到這樣的投資遠遠不夠,這些人需要的GPU 不僅僅是數千個,而是數百萬個。
他們將CoreWeave 要做的事情形容為“為AI 市場建立電力網絡”,並認為“如果這些東西不建成,那麼AI 將無法擴展”。
CoreWeave在德州建設新的數據中心|CoreWeave
CoreWeave 的首席戰略官Brannin McBee 在一檔播客中談到,去年底,所有超大規模計算公司加在一起,包括亞馬遜、Google、微軟、甲骨文,將CoreWeave 也算進去,它們共計提供了大約50 萬個GPU,到今年年底,或許將接近100 萬個。
在行業增長速度和利潤空間方面,他認為,AI 市場的需求可以拆解為訓練模型和執行推理任務兩個階段,目前訓練階段存在芯片供應短缺,而推理階段將是未來需求的主要增長點,也是真正的需求所在。
對於一家AI 公司的一個模型而言,退出訓練階段後,在產品上市的前兩年內,商業化階段的推理執行至少需要百萬個GPU,但全球AI 基礎設施還不足以滿足這一需求,這將是一個長期的挑戰,至少需要再過兩年,GPU 供應短缺才可能開始緩解。
如今,投入AI 領域的熱錢大部分都得用於雲計算。今年6 月,CNBC 曾報導稱微軟“已同意在未來多年內在初創公司CoreWeave 的雲計算基礎設施上可能花費數十億美元”。像Inflection AI 這樣的明星AI 初創公司,最近籌集了13 億美元資金來建立大規模GPU 集群,同時,該公司的選擇也是CoreWeave。
抱緊英偉達大腿
今年4 月,CoreWeave 完成2.21 億美元B 輪融資,投資者包含芯片製造商英偉達,以及前GitHub CEO Nat Friedman 和前蘋果高管Daniel Gross。一個月後,公司宣布獲得2 億美元加投,該輪融資總額達到4.21 億美元。
8 月,CoreWeave 又通過將高度搶手的英偉達H100 作為抵押品,獲得了另外23 億美元的債務融資,資金將用於收購更多芯片,以及建設更多數據中心。
根據彭博最新消息,CoreWeave 目前正準備出售10% 股權,其公司估值最高已經達到80 億美元。
英偉達創始人黃仁勳今年在公司業績電話會議上稱:“你會看到一大批新的GPU 專業化雲服務提供商”“其中一個著名的就是CoreWeave,他們做得非常出色。”
CoreWeave 與英偉達的聯繫在2020 年已經開始,該公司當年宣布加入英偉達合作夥伴網絡的雲服務提供商計劃,主要目的是將GPU 加速引入雲中。在不久前的2023 年Siggraph 計算機圖形大會上,黃仁勳現身,CoreWeave 的每個展台都特意用小字標明“由英偉達提供動力”。
黃仁勳現身CoreWeave展台| CoreWeave
包括黃仁勳在內,英偉達的高管們不吝於給CoreWeave 刷臉背書。
英偉達全球業務發展、雲和戰略合作夥伴全球總監稱CoreWeave 是“英偉達合作夥伴網絡中的首個精英計算雲解決方案提供商。他們為客戶提供了廣泛的計算選項,從A100 到A40,以前所未有的規模,以及在人工智能、機器學習、視覺效果等方面提供世界一流的結果。英偉達為CoreWeave 感到自豪。”英偉達另一名高管則在融資聲明中將其定位為“性能最高、能源效率最高的計算平台”。
這類讚譽也與英偉達自身利益相關。英偉達需要確保他們的計算終端用戶能夠以最高性能的方式,規模化地訪問他們的計算資源,就像新一代芯片發布後,客戶希望盡快獲得它們一樣。這也使他們不吝於宣傳與CoreWeave 的合作,多發展一個忠誠的“下線”並沒有害處。
CoreWeave 正是在滿足英偉達的標準和要求方面進行建設,規模化運營,在新一代芯片發布後的幾個月內將其上線,而不是像傳統的超大規模計算公司可能需要數個季度的時間。這使CoreWeave 在英偉達內部具有較高的訪問權限。
Brannin McBee 稱“作為一家企業,這使我們在英偉達眼中贏得了信任,因為他們知道我們的基礎設施將比市場上任何其他公司更快地交付給客戶,而且以最高性能的配置交付。”
硬剛矽谷巨頭
然而,面對矽谷巨頭的競爭時,CoreWeave 如何自處?
從整個行業來看,CoreWeave 在AI 基礎設施運營方面的競爭對手包括微軟、Google和亞馬遜等科技巨頭。
8 月底,Google雲首席執行官Thomas Kurian 在年度Next 大會上稱,目前行業中超50% 的AI 初創公司,以及超過70% 的生成式AI 獨角獸都是Google雲的客戶。
一個八十億美元估值的初創公司,如何避免被一堆萬億級別美元的巨頭碾壓?當下的答案在於:小公司自身的靈活性和業務聚焦,以及科技公司之間敏感的戰略格局。
CoreWeave 高管們喜歡打一個比方:“通用汽車可以製造電動汽車,但這並不意味著它成為了特斯拉。”他們認為,人工智能提出了傳統雲平台無法處理的挑戰,讓新興公司在被迫適應的老牌公司面前佔據優勢。
矽谷巨頭們如亞馬遜、Google、微軟宛如同航空母艦,每次調整方向時都需要更多時間空間。在其看來,他們需要時間來適應新的AI 基礎設施構建方式,通常在最新芯片發布後需要一段時間才能提供規模化的訪問。現在人們更加關注構建超級計算機,需要在這些計算機之間進行高度協同的任務,數據吞吐量更高,而巨頭們最主要的資源並非用在這裡。
“當這三家巨頭建立雲服務時,他們是為了其用戶群中的數十萬,甚至數百萬所謂的通用用例提供服務,在這些區域中,裡面可能只有一小部分容量用於GPU 計算。 ”CoreWeave 首席技術官Brian Venturo 稱。
CoreWeave 自認其靈活性和專業性使其能夠在AI 基礎設施領域脫穎而出,在性能和成本效益方面具有競爭優勢,更適用於AI 應用。CoreWeave 的員工只有兩百多人,客戶的數量都比員工多,但他們與Inflection AI 甚至OpenAI 支持者微軟達成了協議,提供定制系統和更多配置的芯片,比為通用計算而配備的服務器更高效。
目前在規模方面,CoreWeave 稱擁有超過45000 個高端英偉達GPU,可按需使用。重要的不僅僅是數量,而在於提供的訪問權限。在選擇方面,CoreWeave 聲稱保持行業內最廣泛的英偉達GPU 選擇,以滿足各種計算需求。他們設計了“合適大小”的工作負載系統,聲稱“既不多,也不少:剛剛好”。
至於價格,CoreWeave 的旗號是“比競爭對手便宜80%”。
另一方面,背後英偉達的決策也很關鍵。通過掌控稀缺的GPU 資源,選擇提貨給誰,也會影響整個市場。儘管供應緊張,但英偉達為CoreWeave 分配了大批最新的AI 芯片,從包括AWS 等頂級雲服務提供商那里分流供應。原因在於,這些公司正竭力自行研發AI 芯片,以減少對英偉達的依賴。
CoreWeave 的高管持有這麼一個觀點:“不自己製造芯片絕對不是劣勢”,因為這有助於他們爭取從英偉達那裡獲得更多GPU。畢竟,他們與英偉達不存在利益衝突,而胃口龐大的矽谷巨頭們可能就不是這樣了。
不過,科技巨頭畢竟還是英偉達的大客戶。今年8 月底,黃仁勳現身Google雲年度Next 大會,宣布與Google的新合作,Google的GPU 超級計算機A3 VM 在9 月將向市場推出,搭載的是英偉達的H100 GPU。
Google雲Next2023 大會上,黃仁勳現身宣布和Google雲的合作|Google Cloud
另外,如果真的突然出現了一種新的芯片,性能可以比英偉達更好,或不遜色於它,那將給CoreWeave 的業務產生什麼影響?
Brannin McBee 認為,同一芯片的壽命包括前兩到三年用於模型訓練,然後四到五年用於推理執行,短期內風險不大。而且,英偉達正努力建立硬件周圍的開放生態系統,以增加行業對其芯片技術的黏性,其他製造商顯然非常有動力進入這個領域,但他們缺乏生態系統,這是一個不可忽視的鴻溝。
在沒有硬核的芯片製造技術的情況下,CoreWeave 的相對優勢和成功,牢牢係於其合作夥伴的供應鍊和穩定性,在全行業GPU 緊俏的時候,這種依賴就還是優勢。
從加密幣“礦場”到人工智能“算力礦場”,CoreWeave 的發跡史令人咋舌——時代的一粒金沙,即便落到一個創業公司身上,也能讓其迅速崛起。在這個AI 狂飆的時代,行業對於算力的渴望,成就了萬億美元的英偉達,顯然也成就了CoreWeave 這樣能瞅准時機All in 的公司。