英偉達和AMD的下一代人工智能GPU將主要搭配HBM3內存
TrendForce報告稱,下一代HBM3和HBM3e內存將主導人工智能GPU行業,尤其是在企業對整合DRAM的興趣顯著增加之後。現有的英偉達A100 和H100 AI GPU 分別採用HBM2e 和HBM3 內存,它們分別於2018 年和2020 年亮相。美光(Micron)、SK 海力士(SK Hynix)和三星(Samsung)等多家製造商正在快速開髮用於大規模生產更快的新型HBM3 內存的設備,用不了多久,它就會成為新的基準。
關於HBM3 內存,有一個普通的細節不為很多人所知。正如TrendForce 所強調的那樣,HBM3 將以不同的形式出現。據報導,低端HBM3 將以5.6 至6.4 Gbps 的速度運行,而高端變體將超過8 Gbps。高端變體將被稱為”HBM3P、HBM3A、HBM3+ 和HBM3 Gen2″。
機構預計,HBM 行業的市場份額必將大幅上升,而SK 海力士則處於領先地位。預計未來的人工智能GPU,如AMD MI300 Instinct GPU 和英偉達的H100,都將採用下一代HBM3 工藝,而SK Hynix 在這方面佔據了先機,因為它已經進入了製造階段,並收到了英偉達本身的樣品請求。
美光(Micron)最近也宣布了其未來的HBM4 內存設計計劃,但預計要到2026 年才會實現,因此即將推出的代號為”GB100″的英偉達Blackwell GPU 很可能會採用速度更快的HBM3 變體,時間大約在2024-2025 年之間。採用第五代工藝技術(10 納米)的HBM3E 內存預計將於2024 年上半年開始量產,三星/SK 海力士預計都將加緊生產。
SK hynix 率先推出12 層HBM3 內存,每層24 GB 容量,向客戶提供樣品
三星和美光(Micron)等競爭對手也在加足馬力,有多篇報導都圍繞著這兩家公司。據說,三星建議英偉達通過其部門負責晶圓和內存的採購。與此同時,據報導美光已與台積電合作,成為英偉達人工智能GPU 的內存供應商。
在之前的報導中,我們根據TrendForce 披露的數據討論了人工智能產業的前景。據預測,從2023 年到2027 年,人工智能服務器出貨量預計將增長15.4%,複合年增長率(CAGR)預計為12.2%。出貨量的大幅增長最終將導致公司之間的競爭加劇,最終推動創新。