微軟成AMD AI GPU最大買家定價是H100四分之一
AMD在2023年12月6日舉辦了主題為「Advancing AI」的活動,推出了新一代針對資料中心的Instinct MI300系列計算卡。其中Instinct MI300X為純GPU設計,採用了CDNA 3架構,可為HPC和AI工作負載提供突破性的效能。
根據Seeking Alpha報道,根據花旗集團的分析報告,顯示微軟的資料中心部門是Instinct MI300X的最大買家,已開始為GPT-4這類大型語言模型(LLM)工作。先前AMD執行長蘇姿豐博士表示,AMD在2024年AI晶片的銷售額預計將達到35億美元,高於先前20億美元的預期。
雖然AMD沒有公開Instinct MI300X的定價,不過有知情人士透露,每塊計算卡的售價為1.5萬美元,相比於英偉達的產品是比較實惠的。目前H100 PCIe 80GB HBM2E版本在市場上的售價大概為3萬美元到4萬美元,甚至更高一些,而性能更強的H100 SXM5 80GB HBM3版本的定價則更高。花旗集團的分析師表示,Instinct MI300X的定價或僅為後者的四分之一。先前AMD執行長蘇姿豐博士表示,AMD在2024年AI晶片的銷售額預計將達到35億美元,高於先前20億美元的預期。
Instinct MI300X採用了小晶片設計,混用5nm和6nm工藝,晶體管數量達到了1530億個。其使用了第四代Infinity Fabric解決方案,共有28個模組晶片,其中包括8個HBM和4個運算晶片,而每個運算晶片擁有2個基於CDNA 3架構的GCD,共80個運算單元,意味著有320個計算單元和20480個流處理器。出於良品率的考慮,AMD削減了部分計算單元,實際使用數量為304個計算單元和19456個流處理器。此外,HBM3容量達到192GB,提供了5.3TB/s的記憶體頻寬和896GB/s的Infinity Fabric頻寬。