NVIDIA Hopper H200將於明年第一季開始採用HBM3e HBM4預計於2026年亮相
根據TrendForce 估計,HBM 產業似乎已圍繞NVIDIA 為中心,其中NVIDIA 的AI 訂單將主導當前和下一代HBM 供應。根據市場研究,NVIDIA 準備將其HBM 訂單的相當一部分交給韓國巨頭三星,因為兩家公司都開始建立對人工智慧產業至關重要的業務關係。
![NVIDIA-TensorRT-LLM-Hopper-AI-GPUs-1456x818.png](https://i0.wp.com/static.cnbetacdn.com/article/2023/1129/338d314a3e43522.png?w=640&ssl=1)
早在9月就有消息稱,三星的HBM產品已通過多項資質審核,獲得了NVIDIA的信任,集邦科技目前透露,三星可能會在12月份完成升級流程,明年年初開始陸續有訂單流入。
除了HBM3 之外,下一代HBM3e 標準的採用也已步入正軌,因為業內消息人士稱,美光、SK 海力士和三星等供應商已經啟動了HBM3e 的出樣過程,據說這將是決定性的一步。能否進入商用,結果可能會在2024 年某個時候出現。回顧一下,HBM3e 預計將在NVIDIA 的Blackwell AI GPU 中首次亮相,據傳該GPU 將於2024 年第二季度推出,而在性能方面,它將通過採用小晶片設計帶來決定性的每瓦性能提升。
NVIDIA 在2024 年為運算客戶制定了許多計劃,該公司已經發布了H200 Hopper GPU,預計明年將被大規模採用,隨後將推出B100「Blackwell」 AI GPU,兩者都將基於HBM3e 記憶體技術。
![20231123_174120_2023-11-23_173646-1.jpg](https://i0.wp.com/static.cnbetacdn.com/article/2023/1129/1e328071b47edf9.jpg?w=640&ssl=1)
除了傳統路線外,據傳NVIDIA 還將針對AI 領域推出基於ARM 的CPU,這將創造市場多元化格局,同時加劇競爭。英特爾和AMD 預計也將推出各自的AI 解決方案,其中值得注意的是下一代AMD Instinct GPU 和採用HBM3e 記憶體的英特爾Gaudi AI 加速器。
![20231123_174136_2023-11-23_173712-1.jpg](https://i0.wp.com/static.cnbetacdn.com/article/2023/1129/fb0e964e50a12f7.jpg?w=640&ssl=1)
最後,TrendForce 給出了我們對HBM4 的預期,特別是即將推出的內存標準將在板載晶片配置方面進行全面改造,因為有傳言稱基本邏輯晶片將採用12 奈米製程來加工晶圓,並將作為3D 封裝DRAM/GPU 背後的工藝,在代工廠和記憶體供應商之間建立協作環境。HBM4有望標誌著下一代運算能力的轉變,也可能成為人工智慧產業未來突破的關鍵。