「最強算力晶片」登場,MI300X比H100快,但快多少?微軟會是勝負手嗎?
Meta、OpenAI和微軟在本週三舉行的AMD投資者大會上,表示將使用AMD最新的人工智慧晶片Instinct MI300X。此舉表明,科技界正在積極尋求昂貴的英偉達GPU的替代品。MI300X被業界寄予厚望,畢竟“天下苦英偉達久矣”,後者的旗艦GPU不僅價格高昂,而且供貨數量也相當有限。如果MI300X能夠大規模採用,可望降低開發人工智慧模型的成本,對英偉達形成競爭壓力。
比英偉達的GPU快多少?
AMD表示,MI300X基於全新架構,效能有顯著的提升。它的最大特點是擁有192GB的尖端高效能內存,即HBM3,這種內存傳輸數據的速度更快,可以容納更大的人工智慧模型。
蘇姿豐直接將MI300X及其所建構的系統與英偉達的(上代)旗艦GPU H100進行了比較。
就基本規格而言,MI300X的浮點運算速度比H100高30%,記憶體頻寬比H100高60%,記憶體容量更是H100的兩倍以上。
當然,MI300X對標的更多是英偉達最新的GPU H200,雖然規格上同樣領先,但MI300X對H200的優勢就沒那麼大了,內存頻寬僅比後者多出個位數,容量比後者大近40%。
蘇姿豐認為:
「這種性能可以直接轉化為更好的用戶體驗,當你向模型提問時,你希望它能更快地回答,尤其是當回答變得越來越複雜時。”
蘇姿豐:AMD不需要擊敗英偉達第二名也可以過得很好
AMD面臨的主要問題是,那些一直依賴英偉達的公司是否會投入時間和金錢來增加另一家GPU供應商。
蘇姿豐也承認,這些公司確實需要「付出努力」來轉向AMD晶片。
AMD週三告訴投資人和合作夥伴,公司已經改進了標英偉達CUDA的軟體套件ROCm。CUDA套件一直是AI開發者目前青睞英偉達的主要原因之一。
價格也很重要。AMD週三沒有透露MI300X的定價,但肯定會比英偉達的旗艦晶片更便宜,後者的單價在4萬美元左右。蘇姿豐表示,AMD的晶片必須比英偉達的購買和營運成本更低,才能說服客戶購買。
AMD還稱,已經和一些最需要GPU的大公司簽下了MI300X的訂單。
Meta計畫把MI300XGPU用於人工智慧推理任務,微軟技術長Kevin Scott也表示,公司會把MI300X部署在其雲端運算服務Azure中,此外,甲骨文的雲端運算服務也會使用MI300X。OpenAI也會在一款稱為Triton的軟體產品中使用AMD GPU.
根據研究公司Omidia的最新報告,Meta、微軟、甲骨文都是2023年英偉達H100 GPU的重要買家。
AMD並未給出MI300X的銷售預測,僅預計2024年資料中心GPU總營收約20億美元。而英偉達僅最近一個季度的資料中心收入就超過了140億美元,不過算上了GPU以外的其他晶片。
展望未來,AMD認為,人工智慧GPU的市場規模將攀升至4,000億美元,比先前的預測翻了一番。由此可見,人們對高階人工智慧晶片的期望有多高、垂涎有多深。
蘇姿豐也對媒體坦然地說,AMD不需要擊敗英偉達,也能在市場上取得好成績。言下之意就是,第二名也可以活得很好。
她談到AI晶片市場時表示:
「我認為可以明確地說,英偉達現在肯定是市場的領導者,我們相信,到2027年,這個市場的規模可能會達到4000多億美元。我們可以從中分得一杯羹。”