美光領先SK Hynix 和三星啟動HBM3E記憶體的生產
美光科技(Micron Technology)週一表示,該公司已開始大量生產其HBM3E 記憶體。該公司的HBM3E已知良好堆疊晶片(KGSD)將用於NVIDIA的H200運算GPU,用於人工智慧(AI)和高效能運算(HPC)應用,該產品將於2024年第二季出貨。
美光透露其正在大規模生產24 GB 8-Hi HBM3E 設備,每個設備的資料傳輸速率為9.2 GT/s,峰值記憶體頻寬超過1.2 TB/s。與HBM3 相比,HBM3E 將資料傳輸速率和峰值記憶體頻寬提高了44%,這對於像NVIDIA 的H200 這樣對頻寬要求極高的處理器尤其重要。
NVIDIA 的H200 產品採用Hopper 架構,運算效能與H100 相同。同時,它配備了141 GB HBM3E 內存,頻寬達4.8 TB/s,比H100 的80 GB HBM3 和3.35 TB/s 頻寬有了顯著提升。
美光使用其1β(1-beta)製程技術生產其HBM3E,這對該公司來說是一項重大成就,因為該公司將其最新的生產節點用於資料中心級產品,這是對製造技術的一種考驗。隨著美光即將於2024 年3 月發布36 GB 12-Hi HBM3E 產品,代表著公司的人工智慧記憶體路線圖得到了進一步鞏固,同時這些設備接下來將用於何處還有待觀察。
領先競爭對手SK Hynix 和三星開始量產HBM3E 記憶體是美光公司的一項重大成就,目前美光公司在HBM 領域佔據10% 的市場份額。此舉對該公司至關重要,因為它使美光能夠比競爭對手更早推出高端產品,從而有可能增加收入和利潤率,同時獲得更大的市場份額。
美光科技執行副總裁兼首席業務官Sumit Sadana 表示:”美光在HBM3E 這一里程碑上實現了三連冠:領先的上市時間、同類最佳的行業性能以及與眾不同的能源效率特性。人工智慧工作負載在很大程度上依賴記憶體頻寬和容量,美光透過我們業界領先的HBM3E 和HBM4 路線圖,以及我們面向人工智慧應用的全套DRAM 和NAND 解決方案組合,在支援未來人工智慧的大幅成長方面處於非常有利的位置。”