英偉達最新AI晶片H200或將成為其史上最賺錢產品之一
週一,半導體產業巨頭英偉達發布了新一代人工智慧(AI)晶片H200,這款晶片旨在針對各種AI模型進行訓練和部署。H200晶片是目前用於訓練最先進的大型語言模型H100晶片的升級版,配備了141GB的內存,特別擅長執行「推理」任務。在執行推理或產生問題答案時,H200的表現比H100提升了60%至90%。
根據英偉達官網的消息,基於英偉達的「Hopper」架構,H200是該公司首款採用HBM3e記憶體的晶片。這種記憶體速度更快,容量更大,使其更適用於大型語言模型。
英偉達表示,H200使用HBM3e記憶體能夠以每秒4.8TB的速度提供141GB的容量,相較於A100,其容量幾乎翻了一倍,頻寬提高了2.4倍。
預計H200將於2024年第二季上市,屆時將與AMD的MI300X GPU競爭。與H200相似,AMD的新晶片相比前代產品擁有更多內存,這對運行大型語言模型的推理計算有幫助。
英偉達也表示,H200將與H100相容,這意味著那些已經在使用H100進行訓練的AI公司無需更改他們的伺服器系統或軟體即可適應H200。
英偉達副總裁Ian Buck表示:“為了訓練生成式AI和高效能運算應用,必須使用高效能GPU。有了H200,業界領先的AI超級運算平台可以更快地解決一些世界上最重要的挑戰。”
英偉達的加速運算首席產品經理Dion Harris表示:“觀察市場上的動態,可以看到大型模型的尺寸正在迅速擴大。這是我們繼續引領最新、最偉大技術的又一例證。”
據美國金融機構Raymond James透露,H100晶片的成本僅3,320美元,但英偉達對其客戶的大量價格卻高達25,000至4萬美元。這使得H100的利潤率可能高達1000%,成為有史以來最賺錢的晶片之一。
在訓練大型語言模型時,通常需要數千個H100集群協同工作,因此科技巨頭、新創公司和政府機構都在爭奪英偉達有限的晶片供應。
由於對其產品的需求看似無窮無盡,英偉達今年的銷售額大幅成長,股價上漲了230%,市值突破了1.2兆美元大關。截至週一收盤,該股收漲0.59%,報486.2美元。