除了GPU 其他芯片都危險
Google上周宣布的雄心勃勃的生成人工智能計劃對一家芯片製造商來說是個好消息。在周三舉行的I/O 開發者大會上長達兩個小時的演講中,Google煞費苦心地指出其使用了H100,這是該芯片製造商今年早些時候才開始發售的高端數據中心處理器。沒有其他芯片製造商或數據中心組件供應商得到這樣的呼聲。
不僅僅是Google;上個月,微軟首席執行官薩蒂亞·納德拉(Satya Na DELL a) 在其公司的財報電話會議上將NVIDIA 點名作為關鍵支持點,以支持他關於“我們擁有最強大的AI 基礎設施”來訓練大數據模型說法。同樣,沒有提到其他芯片製造商。
對於市值最高的芯片公司英偉達來說,這些都是好兆頭。自今年年初以來,它的市值已經翻了近一倍。
在本月晚些時候公佈的財報中,英偉達預計將報告截至4 月的財政季度數據中心收入同比增長4% 至39 億美元。對於去年實現兩位數高增長的業務部門而言,這似乎微不足道,但與英特爾公佈的3 月季度自有數據中心部門38% 的暴跌形成鮮明對比。即使是在這個關鍵市場上一直在追趕英特爾的Advanced Micro Devices,其3 月份的數據中心也基本沒有增長,預計6月份的季度將出現下滑。
NVIDIA 的優勢在於其專為AI 使用而設計的圖形處理器。隨著科技巨頭如Google、微軟、和的母公司現在急於建立類似於流行的ChatGPT 技術的生成人工智能能力,他們需要NVIDIA 的H100 芯片等組件。但同樣是這些公司,其核心業務也面臨放緩,因此面臨著放緩資本支出的壓力,而資本支出最近一直在飆升。
上述四家公司的合併資本支出在3 月季度同比下降4%,這是四年來首次出現此類下降。市場研究公司Dell’Oro Group 預計,與2022 年36% 的激增相比,今年數據中心的特定資本支出將以中等個位數增長。
但經濟放緩帶來的痛苦不會平均分配。廠商們需要投資昂貴的芯片,例如NVIDIA 的H100 來為生成式AI 產品提供動力,這意味著需要削減數據中心支出的其他方面。摩根士丹利分析師喬摩爾在周五的一份報告中寫道,“很明顯,客戶正在整合對傳統服務器的採購,以便為價格高出20 倍的GPU 服務器騰出預算空間。 ”
Google計劃將聊天機器人功能單獨注入其龐大的搜索業務是一個昂貴的前景:New Street Research 的Pierre Ferragu 表示,使用NVIDIA 的芯片為所有Google查詢提供支持將意味著額外的800 億美元資本支出,儘管他補充說他希望該公司能夠抵消其中一些計算需要使用自己的內部TPU 芯片。
隨著時間的推移,消化去年芯片採購的激增可能會幫助其他數據中心芯片製造商。摩根士丹利的摩爾先生表示,AMD的人工智能機會“看起來是我們初步評估的數倍”,最初預計2024 年這家芯片製造商的人工智能收入將達到1 億美元。摩爾先生現在認為這個數字在4 億美元的範圍內。
儘管如此,對於仍深陷銷售低迷的芯片行業來說,人工智能帶來的收益將是為數不多的亮點之一。半導體行業協會本月早些時候報告稱,3 月份行業銷售額同比下降21%,這是該行業自2009 年以來最嚴重的月度跌幅。該組織追踪的上一次重大放緩持續了13 個月,而當前的是僅僅八個月。即使是Big Tech 的雄厚財力也只能走到這一步。