NVIDIA斥資為即將推出的Hopper H200和Blackwell B100訂購HBM3E內存
NVIDIA將以下一代Hopper H200 和Blackwell B100 GPU 助力2024 年的人工智慧競賽,為確保HBM3E 內存供應,公司已下達價值數十億美元的訂單韓國媒體《朝鮮日報》(Biz.Chosun)披露,英偉達( NVIDIA)已向SK hynix 和美光(Micron)等公司訂購了大量HBM3E 內存,為其面向人工智慧領域的下一代產品做準備。
韓國媒體稱,英偉達已為HBM3E 內存預付了約7000 億至1 兆韓元的費用,這一數字不一,但考慮到業界的巨大需求,我們預計實際金額將接近萬億韓元大關。光是預付款就約7.75 億美元,實際數字可能超過10 億美元。這種大舉砸錢的做法限制了其他公司的訂貨量,甚至使它們無法獲得這些資源。
據業內人士26 日透露,據了解,SK 海力士和美光分別從英偉達收到了7000 億到1 萬億韓元的預付款,用於供應尖端內存產品。
NVIDIA 的大筆預付款導致了正在努力擴大HBM 產能的內存半導體公司的投資行動。特別是最大的供應商SK Hynix,據悉該公司正計劃將從英偉達獲得的預付款集中投資於擴大TSV 設備,而TSV 設備阻礙了HBM 產能的提高。去年第三季度,建立新TSV 生產線的相關工作順利發展就是明證。同樣,美光公司在TSV 設施的投資也有望得到推動。
同時,據悉三星電子最近也與英偉達(NVIDIA)完成了HBM3 和HBM3E 產品適用性測試,並簽署了供應合約。
人工智慧產業發展迅速,英特爾和AMD 等公司都在加緊研發,以追趕英偉達在該領域的發展,因此綠隊必須採取”先發制人”的措施,以保持其主導地位。
英偉達計劃在下一代Blackwell AI GPU 中首次採用HBM3e,據傳最終產品將於2024 年第二季度推出,在性能方面,透過採用chiplet 設計,它將在每瓦性能方面帶來決定性的提升。此外,英偉達的Hopper H200 GPU也將配備世界上最快的HBM3E內存,因此解決方案對於英偉達在人工智慧和高效能運算市場取得成功意義重大。
英偉達(NVIDIA)對資料中心領域的創收抱有很大期望,因此他們顯然比別人領先一步。英偉達計畫在2027 年將人工智慧驅動的銷售收入提升到3,000 億美元,因此確保向客戶穩定供應人工智慧GPU 是他們的首要目標。另一個有趣的事實是,收購HBM3E 將為HBM 行業帶來巨大的推動力,尤其是在擴建設施方面,因為訂單積壓一直是SK hynix 和美光等公司面臨的一個大問題,因此預先測量的供應意味著HBM 的交付將變得更加容易。
NVIDIA目前處於主導地位,而且看起來還不會放棄自己的寶座,該公司在其CUDA 平台上取得的進步以及其硬體部門已經徹底改變了市場現狀,我們拭目以待未來的發展。