NVIDIA Hopper H200將於明年第一季開始採用HBM3e HBM4預計於2026年亮相
根據TrendForce 估計,HBM 產業似乎已圍繞NVIDIA 為中心,其中NVIDIA 的AI 訂單將主導當前和下一代HBM 供應。根據市場研究,NVIDIA 準備將其HBM 訂單的相當一部分交給韓國巨頭三星,因為兩家公司都開始建立對人工智慧產業至關重要的業務關係。
早在9月就有消息稱,三星的HBM產品已通過多項資質審核,獲得了NVIDIA的信任,集邦科技目前透露,三星可能會在12月份完成升級流程,明年年初開始陸續有訂單流入。
除了HBM3 之外,下一代HBM3e 標準的採用也已步入正軌,因為業內消息人士稱,美光、SK 海力士和三星等供應商已經啟動了HBM3e 的出樣過程,據說這將是決定性的一步。能否進入商用,結果可能會在2024 年某個時候出現。回顧一下,HBM3e 預計將在NVIDIA 的Blackwell AI GPU 中首次亮相,據傳該GPU 將於2024 年第二季度推出,而在性能方面,它將通過採用小晶片設計帶來決定性的每瓦性能提升。
NVIDIA 在2024 年為運算客戶制定了許多計劃,該公司已經發布了H200 Hopper GPU,預計明年將被大規模採用,隨後將推出B100「Blackwell」 AI GPU,兩者都將基於HBM3e 記憶體技術。
除了傳統路線外,據傳NVIDIA 還將針對AI 領域推出基於ARM 的CPU,這將創造市場多元化格局,同時加劇競爭。英特爾和AMD 預計也將推出各自的AI 解決方案,其中值得注意的是下一代AMD Instinct GPU 和採用HBM3e 記憶體的英特爾Gaudi AI 加速器。
最後,TrendForce 給出了我們對HBM4 的預期,特別是即將推出的內存標準將在板載晶片配置方面進行全面改造,因為有傳言稱基本邏輯晶片將採用12 奈米製程來加工晶圓,並將作為3D 封裝DRAM/GPU 背後的工藝,在代工廠和記憶體供應商之間建立協作環境。HBM4有望標誌著下一代運算能力的轉變,也可能成為人工智慧產業未來突破的關鍵。