從虧錢生意到利潤1000% 英偉達靠什麼成為萬億GPU霸主?
2023年6月13日,英偉達市值突破萬億美元大關,僅次於蘋果、微軟、Alphabet和亞馬遜,成為美國第五大市值公司,第二季度,英偉達在數據中心業務收入超過100億美元,高於英特爾和AMD營收總和。
GPU晶片在超級運算和全球巨頭大模型訓練戰中地位舉足輕重,而掌握全球80%GPU市場份額的英偉達則賺得盆滿缽滿。然而,這種壟斷式的市場佔有率並不是一夜砌成的「城牆」。
根據Tractica數據,預計到2025年全球AI硬體市場收入將達到2,349億美元,其中GPU的收入佔23.2%。
英偉達在GPU市場的所構築的護城河,CUDA是其中至關重要的一環。
一套完善的編譯器生態
2006年,正是在AMD收購了ATI、英特爾依然蟬聯全球第一大晶片廠商的時候,英偉達推出了CUDA(Compute Unified Device Architecture),它是英偉達研發的平行運算平台及程式設計模型。
AI大神吳恩達簡單評價了CUDA的意義:“在CUDA出現之前,全球能用GPU編程的可能不超過100人,有CUDA之後使用GPU就變成一件非常輕鬆的事。”
多數CUDA的推薦者認為,CUDA完善的編譯器生態是英偉達GPU在高效能運算領域成功的關鍵。
具體來講,CUDA具有易部署、開發介面靈活、程式語言適配、工具及程式碼庫完備等優點,並且相容於Windows、Linux和MacOS多個作業系統。
CUDA的開發讓GPU不再是簡單的圖形處理器,適用對像也從遊戲製作人變成科學家、工程師或藝術家。
隨著不斷迭代,CUDA在針對AI或神經網路深度學習領域推出了非常多的加速函式庫,構成了CUDA的軟硬體生態站。
大衛·羅森塔爾在Acquired.FM中介紹,CUDA的程式碼庫是經過最佳化的,開發人員呼叫這些庫開發程式更加方便。因此,CUDA有龐大的社區資源,2023年5月註冊開發者增加至400萬人。
投入過百億的CUDA生態
英偉達憑藉CUDA幾乎壟斷了訓練晶片市場,業界也幾乎沒有巨頭對CUDA生態造成顛覆性衝擊。
英偉達為CUDA生態鋪墊了十餘年。
2007年,英偉達的GPU研發技術已佔據強勢地位,隔年英特爾的大客戶蘋果將MacBook除CPU外直接替換成英偉達Tesla架構的GPU便印證了這一點。
據報道,經年累計英偉達對CUDA總投入早已超過100億美元。
在黃仁勳商業化考量之下,CUDA生態需要培養潛在開發者,成為受到程式設計師和企業歡迎的技術平台。
在2006年推出CUDA後,英偉達的第一個策略便瞄準了“軟體開發人員”,投入巨資讓開發者習慣使用CUDA平台。
初期,開發者社群有這樣一句話:CUDA在程式語言和共用記憶體兩個層次的並行都簡化了編程,使得本科生也能使用CUDA寫出大規模高效能運算程式。
為擴大覆蓋率,英偉達將CUDA引入大學課堂,與伊利諾大學等大學合作完善函數庫。在2010年時,已有250所大學開放CUDA的教學課程,並有相關論文數千篇。以此為基礎完善生態,英偉達建立研究中心、教學中心、認證計劃,至2015年已有800所大學開發相關課程。
再從業來看,英偉達投入資金做inception計畫(新創加速計畫),讓新創公司運用CUDA做專案鋪墊基礎。
至今,已有超過100家新創公司利用了CUDA。此外,英偉達開源了Cub、NCCL等通用場景下的開發庫,並優化中間件性能的基礎庫給廠商使用,再次擴大了生態系統。
因此,許多開發者依賴CUDA,同時憑藉強大的核心能力在消費市場上受到青睞。
2012年,在ImageNet競賽一舉奪冠的AlexNet面世後,CUDA已迭代至5.0版本,支援了動態函式庫和GPU指針。
2016年,OpenAI成立之時,CUDA8.0已經支援半精度浮點數和張量核心,軟體生態已由學界和業界人士熟知、互相推薦。
在2022年底,ChatGPT的發布將生成式AI送到人們眼前,CUDA12.0支援了新的NVIDIA Hopper 和NVIDIA Ada Lovelace 架構功能,並為所有GPU提供了額外的程式設計模型增強功能。
等到大模型熱度吹進各家企業時,英偉達已經深化了他們在行業中的差異化,成為市場玩家購物籃的第一選擇。
目前為止,基於CUDA的GPU銷售超過百萬。
而眾多GPU晶片廠家中,為何是英偉達做出了唯一的CUDA開發環境?
從虧錢生意到利潤1000%
回顧世紀初期,英偉達與微軟、ATI、AMD、英特爾五家巨頭的混戰,英偉達在圖形處理市場中逐漸佔優勢。
2006年7月,AMD以54億美元溢價收購ATI,晶片市場重新洗牌。同年,英偉達的首席科學家David Kirk提出了「將GPU技術通用化」的思路,從主要做3D渲染的任務中脫離出來,探索通用計算任務。
這個思路就是CUDA。而當時,願意擔起這門費錢費力的技術活的也是英偉達。
幾大家晶片公司中,老對手AMD買下ATI後GPU研發進入弱勢地位,英特爾取消了自研GPU計畫。英偉達則在GPU技術方面將巨頭們甩在了身後。
17年前,研發CUDA是超前的決定,英偉達的CUDA進化並非一帆風順,黃仁勳則堅持「加速運算」是未來。
英偉達和英特爾在2006年秋天共同開發了基於CUDA的新型GPU,即G80 GPU。而兩者的合作持續不長久,CUDA的研發決策需要英偉達長久投入大量資金。
從產品特性上來說,CUDA邏輯電路在硬體產品中增加會導致晶片的散熱需求增高,也因此帶來成本上升、故障增加的風險。
從財報表現來看,CUDA也是一門虧錢生意,在2008年金融危機前後表現得更為明顯。
在最艱難的時候,黃仁勳也沒有中斷CUDA,直到2012年辛頓教授帶隊以GPU取代CPU訓練AI模型做出了AlexNet。
2020年,黃仁勳在接受Barron周刊時強調:“英偉達將推動下一個人工智慧大爆炸。”
這5年,為了迎接人工智慧,英偉達做了3件事。
第一,2019年3月,英偉達以69億美元收購了高效能運算互聯技術公司Mellanox 。這家公司的主要產品InfiniBand,被認為速度更快、頻寬更高,是資料傳輸的有效方式,而Mellanox是唯一的InfiniBand規範提供者。
第二,英偉達於2022年9月發表新一代AI晶片“Drive Thor”,專為大規模GPU集群協調設計,是英偉達一款完全整合的解決方案。
第三,英偉達推出專為加速運算與生成式AI打造的Hopper架構,H100便是基於此架構的GPU。市場消息稱,H100是英偉達利潤率高達1000%的產品,出貨量超過900噸。
隨著ChatGPT發布,帶動AI伺服器出貨量和價格上漲,英偉達的GPU晶片價格水漲船高。英偉達的DGX H100售價總價為268,495美元,包含8GPU+4NVSwitch基板等,每台毛利率接近190,000美元。
英偉達的財務收入令人矚目,據悉,過去3個財年的複合年增長率(CAGR)達到35.2%,預計2023年營收將飆升51.4%至408億美元。
CUDA構築的障礙能被打破嗎?
2016年,AMD推出基於開源專案的GPU生態系統ROCm,類似英偉達的CUDA系統,然而ROCm技術相較落後,在2023年4月才登入Windows平台。由於切入時間較晚,AMD開發者數量遠也低於英偉達。在Github上,貢獻CUDA軟體包倉庫的開發者超過32600位,而ROCm只有不到600個。
英偉達大約佔全球80%的GPU市場份額,光從銷售來看,都是獨大。
而英偉達的壟斷市場的優勢可以持續多久?
針對這個問題,Semi Analysis首席分析師Dylan Patel給出觀點:隨著PyTorch支持更多GPU廠商,再加上OpenAI的Triton攪局,英偉達手中的利器CUDA 逐漸鋒芒不再。
軟體生態來看,CUDA的霸主地位確實受到各方攻擊。
近年來,AI開發框架PyTorch因靈活的eager模式使用比率逐漸超越了TensorFlow,PyTorch2.0版本將對AMD、英特爾、特斯拉、Google等GPU和加速器進行支援完善。
OpenAI則直接推出了“簡化版CUDA:Triton”,操作難度低於CUDA。
2023年第一季度,AMD宣布ROCm系統融入PyTorch2.0框架,TensorFlow和Caffe深度學習框架也加入第五代ROCm。其6月發布下一代資料中心加速處理器(APU)AMD MI300軟體方面能夠全面兼容英偉達CUDA生態,被業界認為有機會挑戰英偉達在人工智慧的產業地位。
儘管如此,從算力角度來看,英偉達H100的升級產品DGX GH200解決了大規模AI的關鍵瓶頸,適配資金充沛且性能要求高的潛在客戶。短期內,CUDA生態仍然穩健,大多數需要訓練晶片的用戶仍然會選擇英偉達。