英偉達也在下一盤AIPC的大棋
2023年,英偉達幾乎一整年都在關注高階顯示卡、AI大模型、超級運算等資料中心業務,以至於市場都快要忘記英偉達在PC市場上也是壟斷全球市場的硬體「軍火商」。事實上,在資料中心業務中賺得盆滿缽滿的同時,英偉達並沒有忘本,黃仁勳早已開始盤算,如何用AI到「電競椅和辦公桌」上去賺錢了。
在剛結束的2024 CES上英偉達發布了大量聚集PC端的AI應用和GPU新品。包括GeForce RTX 40 SUPER系列顯示卡,NVIDIA AI Workbench,開源函式庫TensorRT-LLM,以及生成式AI驅動的語音和動畫模型在內的NVIDIA ACE微服務。
一系列PC端的GPU產品與應用,全部圍繞在本屆CES上PC廠商最關注的議題AIPC。然而,對於一心撲在AI上的英偉達來說,對PC用戶的“關心”,還保留了多少呢?英偉達對業界熱炒的AIPC到底是什麼態度?
PC業務的前景不如資料中心
事實上,在2023年AI大模型爆發以前,英偉達最大的市場一直是PC端的「遊戲」板塊。
英偉達從2015年開始把主營業務分為遊戲(Gaming)、企業(Enterprise)、高效能運算和雲端(HPC & Cloud)、自動駕駛(Automotive)幾個板塊。也是自2015年起,超算和雲,也就是未來的資料中心業務,開始在英偉達的營收中一步步走向高位。
2016年,英偉達對其業務板塊進行了調整,去除了Enterprise和HPC & Cloud兩個板塊,取而代之的是今天的專業視覺化(Professional Visualization)和資料中心(Datacenter)。英偉達也首次單獨公佈了這幾個業務板塊的營收。遊戲業務的目標使用者就是個人電腦,專業視覺化的使用者多數是商業客戶使用的工作站。
2016年英偉達全年的總收入為50.10億美元。在2016年1月31日結束的財年中,英偉達的遊戲業務收入為28.18億美元;專業視覺化業務的收入為7.50億美元;資料中心業務的收入為3.39億美元;自動駕駛業務收入為3.20億美元美元。
其中遊戲業務和專業視覺化分別佔總收入的56.25%和14.97%,今天如日中天的資料中心,在當時只佔總收入的6.77%。
個人電腦市場雖然穩定,但市場似乎已經能夠看到天花板了,不僅成長速度有限,而且由於技術門檻不高,這一領域的市場競爭也日益激烈。
2017、2018年,AI技術首次爆發。為英偉達帶來了一條新的成長曲線。
2018財年,GPU加速運算對於深度學習的支援使得英偉達的資料中心業務快速成長,當年資料中心業務的營收為193.2億美元,專業視覺化為93.4億美元。資料中心的營收和增幅都遠超專業視覺化。
資料中心業務的快速發展,可以說是把英偉達從傳統遊戲硬體供應商,帶上了多元化技術公司的軌道。
市調機構TBRC在2024年1月發布的最新報告中預測, 2023年全球個人電腦市場規模約為2040.9億美元,預計到2024年將增長到2123.8億美元,複合年增長率(CAGR)為4.1% 。個人電腦市場規模預計在未來幾年將保持成長。至2028年,或將增加至2,677.1億美元,複合年增長率為6.0%。
資料中心的市場規模和成長潛力則比個人電腦更大。2023年的全球資料中心市場規模約2,526.8 億美元,比個人電腦市場規模大了約20%。預計到2024 年將增加至2,749.8 億美元,複合年增長率(CAGR) 為8.8%。未來幾年資料中心市場規模的成長也更為強勁。TBRC預計,到2028 年,這一市場的規模將增加至3,884.1 億美元,複合年增長率(CAGR) 為9.0%。
相較於個人電腦業務,資料中心無論是市場規模、市場競爭格局,或是使用者需求、技術發展趨勢,不管當下或未來,都明顯更好做,也更賺錢。
資料中心有多賺錢?
在英偉達最新的2024財年第三季財報中,快速上升的資料中心業務營收1,451.4億美元,佔總營收的80%,完全碾壓了英偉達在PC端的傳統核心業務「遊戲」。對英偉達來說,資料中心業務不管是當下還是未來,都是最能賺錢,賺錢最快,賺錢最簡單的生意。
現今的技術趨勢強烈指向雲端運算、大數據、人工智慧和機器學習等領域,這些都是資料中心業務的關鍵驅動力。
AI推動各家公司對高算力、超級算力的需求持續上漲。2023年中,科技部落格GPU Utils對GPU短缺問題做了一次調查,部落客Clay Pascal給出的調查結果稱,彼時Google雲端擁有大約2.5萬塊H100,微軟雲端服務Azure可能有1萬-4萬塊H100,甲骨文的情況應該類似。Azure的大部分容量都將流向OpenAI。
Clay Pascal預測對於H100的需求,OpenAI可能需要5萬塊,Meta可能需要2.5萬塊,大型雲廠商可能每家都需要3萬塊,加上其他一些新創企業,可能總共需要大約43.2萬塊H100。以每塊約3.5萬美元計算,所需GPU的價值約為150億美元。這還不包括中國公司。
Clay Pascal在部落格中寫道:我被告知,對於需要100或1000塊(英偉達GPU)H100的公司來說,Azure(微軟雲端服務)和GCP(Google雲端服務)實際上已經沒有容量了,亞馬遜也接近沒有容量了。
研究機構Omdia 的研究結果則稱,英偉達在2023年第三季售出了近50萬個A100和H100 GPU,基於H100的伺服器的交付週期已延長至36到52週。雖然不知道目前英偉達的補貨情況,不過從OpenAI近期接連發生的斷網,停帳號,以及新功能升級來看,不管補貨能力如何,需求的巨大缺口仍在。
在巨大的需求面前,英偉達也開始了坐地起價。在晶片產業中,高階產品的利潤率通常較高,不少高階產品的利潤率可達50%以上。而英偉達的高端GPU利潤率高得可怕,投資銀行Raymond James的消息稱H100 GPU的成本只有3320美元,但英偉達賣出的價格為2.5-3萬美元,利潤率高達1000%。
如今英偉達a100和H100伺服器的價格,在國內更是炒得離譜,2023年最後三個月,8卡H100伺服器的價格上浮一度達到300萬元人民幣。
英偉達有多需要AIPC?
資料中心這麼好賺,那是否意味著英偉達會就此減弱對PC市場的關注呢?
短期來看恐怕還不會,畢竟在過去30年裡,PC一直是英偉達的主戰場。在這裡,英偉達不僅有優勢,有經驗,更重要的是有信心。
個人電腦市場,特別是遊戲和專業圖形處理領域,在今天仍然是英偉達重要的收入來源。英偉達2024財年第三季業績顯示,遊戲業務營收為285.6億美元,較去年成長超80%。隨著遊戲產業的發展和虛擬實境技術的進步,PC市場的成長潛力仍然巨大。
另一方面,英偉達在PC市場上,亦處在壟斷地位。英偉達在2022年全球獨立GPU市場的市佔率為88%,AMD和Intel僅佔8%和4%。
更重要的是,英偉達在GPU方面豐富的產品線,可以在PC市場上長期出貨優勢。英偉達提供了一系列針對不同使用者需求的GPU產品,包括遊戲玩家和創作者的Ampere,以及以資料中心為導向的Hopper3。英偉達也建構了包括驅動程式、開發工具和應用程式在內的全面生態系統。
從目前來看如果英偉達的RTX40系列顯示卡在PC上能夠支援新的AI業務,那麼未來仍將獨佔這百億等級的市場,甚至透過AI技術的升級,進一步擴大個人pc市場中GPU的裝機率,推動全球市場規模更上一階。
2023年資料中心業務的成長速度驚人,與AI大模型這項新興技術的爆發密切相關。然而,AI大模型目前對全球科技市場來說仍處在非常早期的階段,未來的成長持續性到底如何,對雲端伺服器的需求如何都未可知。
而PC業務,在過去30年中已經走出了一條穩定的成長曲線。由此可想,雖然英偉達勢必會專注於投資更有利可圖且成長潛力更大的資料中心業務,但一定也不會把早已站穩腳步的PC業務市場拱手讓人。
RTX 40系列的機會與挑戰
AIPC概念在市場上被熱炒,許多廠商都在提出把AI落地到本地,從而降低雲端運算成本、提高安全性和回應效率。這無疑為PC端的GPU創造了新的市場機會。
英偉達在2024 CES上最新發布的GeForce RTX 40 SUPER系列顯示卡中,GeForce RTX 4080 SUPER在AI影片產生上比GeForce RTX 3080 Ti快1.5倍,圖片產生上快1.7倍。SUPER GPUs的Tensor Cores能夠實現每秒高達836兆次AI運算(TOPS),為遊戲、創作和日常生產力帶來變革性的AI能力。
NVIDIA AI Workbench則允許開發者快速建立、測試和自訂預先訓練的生成式AI模型和大型語言模型(LLM)。TensorRT-LLM是一個開源程式庫,用於加速PC上大型語言模型的運作。最新版本的TensorRT-LLM現已可用,它為PC增加了更多預優化模型,與其他推理後端相比,運行速度提高了多達5倍。
此外,英偉達還發布了生成式AI驅動的語音和動畫模型在內的NVIDIA ACE微服務,使開發者能夠為遊戲中添加智慧、動態的數位化角色。此外,NVIDIA還發布了「Chat with RTX」技術演示,它允許AI愛好者透過所謂的「檢索增強生成」(RAG)技術,輕鬆地將PC上的大型語言模型(LLM)連接到自己的資料。
這些新品都針對生成式AI做了大量最佳化,為GPU在未來的AIPC中發力提供了機會。
有趣的是,最近有研究團隊發現RTX 4090在一定條件下甚至有可能取代伺服器級晶片。
上海交通大學的研究團隊開發了一個名為PowerInfer的高效能CPU/GPU 混合式LLM 推理引擎。這款引擎大幅降低了對GPU 記憶體的需求,並減少了CPU 與GPU 之間的資料傳輸,從而提高了整體效率。可在單一NVIDIA RTX 4090 GPU 上運行大型語言模型(LLM),達到平均每秒產生13.20 個token 的速度,峰值速度更是高達29.08 tokens/s,這與頂尖的A100 GPU 伺服器效能相差無幾,僅低18%,適用於多種LLM 應用場景。
PC端GPU在AI加持下雖然機會龐大。但在AIPC的大潮流中競爭也比高階GPU更激烈。
如今,英偉達要面對的競爭中已經不只有AMD和Intel了。蘋果M系列晶片提出的統一記憶體架構(Unified Memory Architecture, UMA),為生成式AI的預訓練過程提供了一個選擇。
UMA允許CPU和GPU共享相同的實體內存,減少了資料在不同記憶體之間的複製需求,提高效率。此外蘋果的硬體優化使其設備在執行AI相關任務時能耗更低。蘋果的硬體和軟體高度整合的特性,也為特定的AI應用提供了更好的最佳化空間。
目前,已經有大量AI大模型開發者開始嘗試使用蘋果電腦訓練大語言模型。最新Mac Studio的頂級版本,已經可以訓練700億參數的LLaMA2模型。
不過,雖然UMA具備諸多優勢,但它更集中在蘋果自己的生態系內,與外部系統的兼容性可能有限。且相比專業的GPU,蘋果的硬體可能在處理極其複雜的AI模型時有效能瓶頸。
英偉達在AI領域深耕多年,擁有強大的技術累積和廣泛的應用生態,這些都是蘋果短時間內難以匹敵的。儘管蘋果UMA可能在某些方面對英偉達構成挑戰,但英偉達的GPU在AI領域依然具有強大的競爭力。
PC業務能救中國市場嗎?
黃仁勳在英偉達2024財年第三季的財報電話中提到,英偉達20-25%的業務來自中國,美國對中國的高階晶片製裁,將會對英偉達造成嚴重影響。
2023年8月,英國《金融時報》曾報道了一則中國雲廠商搶購英偉達高端GPU的新聞,稱百度、字節跳動、騰訊和阿里巴巴四家公司合計向英偉達訂購了價值50億美元的AI晶片. 而受美國制裁法案的影響,英偉達機會完全無法履行這些訂單。
為了保住中國業務,英偉達再度開始積極設計3款」中國特供「晶片。
某國內伺服器製造商近期曾向虎嗅透露,晶片限制政策對國內伺服器生產沒有影響,因為不管英偉達推出什麼晶片,伺服器要做的只是適配NV-Link。目前搭載新的“中國特供”晶片的伺服器已經接受了很多客戶的下單,不過受到美國政府加強管制的影響,原本計劃2024年1月到貨的“中國特供”,現在看肯定要延後了。
有消息稱,拜登政府已經開始調查英偉達為中國開發的三款新型AI晶片的具體細節。美國商務部長吉娜·雷蒙多在接受外媒採訪時談道:“我們會檢查每一個新晶片的每一個規格,顯然是為了確保它不違反出口管制。”
雷蒙多說,英偉達“能夠、願意、也應該向中國出售AI晶片,因為大多數AI晶片將用於商業應用”,但“我們不能允許他們運送最複雜、處理能力最高的AI晶片,這將使中國能夠訓練他們的前沿模型」。她強調說不能向中國企業出售其最先進的半導體,並表示將持續更新出口管制規則。
美國對中國的晶片封鎖,與其說是在製裁中國,不如說是在製裁英偉達。
1月7日,美國《華爾街日報》以「英偉達在中國的新困境,客戶不想要它的降級晶片」為題,報道了英偉達為應對拜登政府出口限制,向中國出售降級特供版AI晶片,但中國客戶不感興趣的最新困境。
事實上,RTX40系列顯示卡在中國的銷售也未必會一帆風順,有消息稱,目前英偉達在中國可以銷售的最高端晶片為RTX 4090D,這款新晶片比RTX4090的性能低了5%左右。英偉達介紹該產品將從2024年1月起陸續在中國上市。
有知情人士向虎嗅透露,為了緩和與中國客戶的關係,英偉達在積極開發「中國特供」的同時,也在與中國伺服器廠商協商,希望能在中低端伺服器,以及PC業務方面做出一些讓步,從而在不取消訂單的情況下,用其他產品取代已經下單但不能發貨的高端晶片產品。
雖然對中國的AI公司來說,沒有全面封鎖GPU晶片就等於斷了AI研發的電力。但這對中國的晶片企業來說,或許是個好消息。