美光2024年和2025年大部分的HBM3E供應已經售罄
作為首家出貨HBM3E 記憶體的公司,美光透露,其先進的高頻寬記憶體(2024 年)已經全部售罄,而2025 年的大部分產量也已分配完畢。美光的HBM3E 內存(或美光的另一種叫法,HBM3 Gen2)是首批獲得英偉達最新H200/GH200 加速器認證的內存之一,因此這家DRAM 製造商似乎將成為這家處於風口上的公司的重要供應商。
美光公司執行長Sanjay Mehrotra 在本週財報電話會議的準備發言中表示:「我們2024 年的HBM 已經售罄,2025 年的絕大部分供應也已經分配完畢。我們仍然預計,在2025 年的某個時候,HBM 位數份額將與我們整體DRAM 位數份額相當”。
美光的首款HBM3E 產品是一個8-Hi 24 GB 堆棧,具有1024 位元介面、9.2 GT/s 資料傳輸速率和1.2 TB/s 的總頻寬。英偉達用於人工智慧和高效能運算的H200加速器將使用6個這樣的立方體,提供總計141 GB的可存取高頻寬記憶體。
Mehrotra說:”我們預計在2024財年從HBM獲得數億美元的收入,預計從第三財季開始,HBM收入將增加我們的DRAM和整體毛利率。”
該公司也開始為其12-Hi 36 GB 堆疊提供樣品,容量提高了50%。這些KGSD 將於2025 年量產,並將用於下一代人工智慧產品。同時,英偉達的B100 和B200 看起來不會使用36 GB HBM3E 堆疊,至少在初期不會。
人工智慧伺服器的需求在去年創下了紀錄,看來今年也將保持在高位。一些分析師認為,英偉達的A100 和H100 處理器(以及它們的各種衍生產品)在2023 年佔據了整個人工智慧處理器市場高達80% 的份額。雖然今年英偉達在推理方面將面臨來自AMD、AWS、D-Matrix、英特爾、Tenstorrent 和其他公司更激烈的競爭,但英偉達的H200 看起來仍將是人工智慧訓練的首選處理器,尤其是對於Meta 和微軟這樣的大公司來說,它們已經運作著由數十萬英偉達加速器組成的艦隊。考慮到這一點,成為英偉達H200 的HBM3E 的主要供應商對美光來說是一件大事,因為它使美光最終能夠在HBM 市場上佔據相當大的份額。
同時,由於HBM 堆疊中的每個DRAM 裝置都有一個較寬的接口,因此在物理尺寸上大於普通的DDR4 或DDR5 IC。因此,HBM3E 記憶體的量產將影響美光公司商品DRAM 的位數供應。
“HBM產量的成長將限制非HBM產品的供應成長,”Mehrotra說。”從整個產業來看,在相同的技術節點上生產一定數量的位,HBM3E 消耗的晶圓供應量大約是DDR5 的三倍。”