挑戰英偉達!AMD推出AI芯片MI300X 亞馬遜與Meta將“嚐鮮”
CPU與GPU雙產業巨頭、英偉達競爭對手之一AMD(AMD.US)於美東時間週二展示了其即將推出的人工智能處理器系列產品,旨在幫助數據中心處理大量人工智能數據流量,並挑戰英偉達(NVDA.US)在這個新興市場的強勢主導地位。
AMD週二在舊金山的新品發布會中表示,該公司推出的Instinct MI300系列將包括一個加速器,可以加快ChatGPT和其他聊天機器人等生成式人工智能產品背後的數據處理速度。這款名為MI300X的產品是最早於今年1月在國際消費電子展(CES)上公佈的產品系列陣容的其中一部分內容。
AMD全新推出的GPU專用MI300,即MI300X,是針對大語言模型(LLM)的優化版,擁有192GB的HBM3內存、5.2TB/秒的帶寬和896GB/秒的Infinity Fabric 帶寬。AMD將1530億個晶體管集成在共12個5納米的小芯片中。AMD表示,MI300X提供的HBM密度最高是英偉達AI芯片H100的2.4倍,其HBM帶寬最高是H100的1.6倍。這意味著,AMD的芯片可以運行比英偉達芯片更大的模型。AMD未披露具體的價格。
蘇姿豐介紹,MI300X可以支持400億個參數的Hugging Face AI 模型運行,並演示了讓這個LLM寫一首關於舊金山的詩。這是全球首次在單個GPU上運行這麼大的模型,單個MI300X可以運行一個參數多達800億的模型。AMD首席執行官蘇姿豐表示,隨著模型規模越來越大,就需要多個GPU來運行最新的大型語言模型,而隨著AMD芯片內存的增加,開發人員將不再需要那麼多數量的GPU,意味著可以節約成本。
與芯片行業的許多公司一樣,AMD正在競相滿足其客戶對人工智能計算日益增長的需求。依賴於大語言模型(LLM)的流行服務——即處理大量數據以回答使用者查詢的問題和生成圖像的算法,正在將數據中心算力推向極限。
到目前為止,英偉達在提供處理這些工作負載所需的硬件技術方面具有非常大的優勢,尤其是英偉達推出的A100/H100 GPU芯片極度適合AI訓練和運行機器學習軟件,這也是支持Open AI旗下火爆全球的ChatGPT的最關鍵底層硬件。
AMD首席執行官蘇姿豐(Lisa Su)在發布會上表示:“我們仍處於人工智能生命週期的非常非常早期的階段。”“毫無疑問,在可預見的未來,人工智能將成為矽消費的關鍵驅動力。”
蘇姿豐在發布會中預測,到2027年,數據中心人工智能加速器(AI accelerators )的潛在市場總額預計將增長五倍,達到1500億美元以上。
市場調研機構Technavio 此前公佈的一份最新研報顯示,範圍涵蓋GPU、CPU、FPGA、ASIC的人工智能(AI) 用途芯片市場規模預計在2022-2027年期間以高達驚人的61.51%的複合年增長率爆炸式增長,在2027年達到大約2105億美元的市場規模。
Technavio表示,市場規模擴張取決於幾個因素,其中包括數據中心越來越多地採用人工智能芯片,企業越來越多地關注智能手機的人工智能芯片開發,以及自動駕駛汽車中人工智能芯片的開發。
投資者們似乎反應冷淡,發布會未能促進AMD股價繼續上行
儘管如此,這場關於AI芯片的演講並沒有讓投資者眼花繚亂,他們此前已經對人工智能市場規模的擴張速度抱有極高的期望。截至週一收盤,AMD股價今年累計上漲接近95%,但在周二的發布會結束後,截至週二美股收盤,AMD股價跌幅超過3%,其競爭對手英偉達股價反而漲近4%。今年迄今為止,AMD競爭對手英偉達的漲幅則高達驚人的186%。
值得注意的是,英偉達的市場領先地位不僅來自其芯片硬件產品,還來自十多年來為人工智能領域的研究人員提供各種軟件工具,並成功預測在需要數年時間設計的芯片中需要什麼軟件以及哪些類型的軟件,並且構成了完整的“英偉達AI硬件+軟件生態系統”。
AMD週二更新了其Rocm軟件,該軟件與英偉達的Cuda軟件平台競爭。AMD總裁表示,在構建強大的軟件堆棧方面,AMD取得巨大進步,ROCm軟件棧可與模型、庫、框架和工具的開放生態系統配合使用。
來自研究機構Moor Insights & Strategy的分析師Anshel Sag表示:“即使AMD在硬件性能方面具有絕對的競爭力,但人們似乎仍不相信AMD的軟件解決方案生態環境能與英偉達相媲美。”
AMD新品已獲科技巨頭亞馬遜和Meta青睞
據了解,美國科技巨頭亞馬遜(AMZN.US)旗下AWS和Facebook母公司Meta Platforms(META.US)的高管與蘇姿豐在台上討論了在他們的數據中心使用全新的AMD處理器。這家芯片巨頭還宣布,其最新版本的Epyc服務器處理器和一款名為Bergamo的新變體版本已經全面上市,該全新版本旨在用於雲計算。
AMD表示,已開始向Meta等公司大量出貨一款名為Bergamo的通用中央處理器芯片。Facebook母公司Meta負責計算基礎設施的Alexis Black Bjorlin表示,該公司採用了Bergamo芯片,該芯片針對的是AMD數據中心業務的另一部分,該業務主要面向雲計算提供商和其他大型芯片買家。
幫助創建人工智能開源軟件的Meta副總裁Soumith Chintala表示,他與AMD密切合作,使得人工智能開發人員更容易使用更加自由的工具,從人工智能芯片的“單一主導供應商”轉換到AMD提供的其他產品。Chintala在會上表示:“你實際上不必做很多工作——或者在很多情境下毫不費力,但是能夠實現從一個平台到另一個平台。”
此外,隨著第四代EPYC處理器AMD Genoa-X的推出,另一科技巨頭微軟(MSFT.US)表示,其Azure雲平台正在為芯片提供新的Hbv4和HX雲實例,用於技術層面的計算。
AMD表示,MI300X加速器基於AMD的CDNA 3技術,使用高達192GB的內存來處理大語言模型和生成式人工智能的工作負載。AMD強調,主要客戶將在第三季開始試用該技術,第四季開始有望實現全面生產。另一個型號,Instinct MI300A,現在正在向客戶推出。蘇姿豐演示中介紹,AMD的Instinct MI300A號稱全球首款針對AI和高性能計算(HPC)的加速處理器(APU)加速器。在13個小芯片中遍布1460億個晶體管。