黃仁勳在COMPUTEX大會上說了什麼?這裡是最全的亮點
英偉達CEO黃仁勳在COMPUTEX大會上拋出多個重磅信息,包括新的機器人設計、遊戲功能、廣告服務和網絡技術。其中最為引人矚目的是,搭載256顆GH200 Grace Hopper超級芯片的新型DGX GH200人工智能超級計算機,堪稱“算力殺器”。Google雲、Meta和微軟將是第一批獲得DGX GH200 訪問權限的公司,並將對其功能進行研究。
5月29日週一,英偉達CEO黃仁勳在COMPUTEX大會上拋出多個重磅信息,包括新的機器人設計、遊戲功能、廣告服務和網絡技術。其中最為引人矚目的是,搭載256顆GH200 Grace Hopper超級芯片的新型DGX GH200人工智能超級計算機,堪稱“算力殺器”。
Google雲、Meta和微軟是首批預計將獲得DGX GH200訪問權的客戶,以探索其在生成型AI工作負載方面的能力。值得注意的是,算力的突破,將使得AI應用再次獲得巨大提升,AI賽道有望向下一個節點邁進。在周一的演講中,黃仁勳認為科技行業的傳統架構的改進速度已不足以跟上複雜的計算任務。為了充分發揮AI 的潛力,客戶越來越多地轉向加速計算和英偉達製造的GPU。
黃仁勳說:
我們已到達生成式AI引爆點。從此,全世界的每個角落,都會有算力需求。
有評論認為,一連串的發布凸顯了英偉達正在從一家GPU製造商轉變為一家處於AI熱潮中心的公司。
上週,由於對處理AI任務的數據中心芯片的強烈需求,英偉達大幅提高了對本季度的業績指引,比分析師的估計高出近40億美元。業績指引的提高使該股創下歷史新高,並使英偉達的估值接近1萬億美元,這還是芯片業中首次有公司市值達到這一高度。
在周一的會議上,黃仁勳發布的主要內容包括:
- 英偉達面向遊戲玩家的GForce RTX 4080 Ti GPU現已全面投產,並已經開始量產。
- 黃仁勳宣布推出適用於遊戲的英偉達Avatar Cloud Engine(ACE),這是一種可定制的AI模型代工服務,為遊戲開發人員提供預訓練模型。它將通過AI支持的語言交互賦予非玩家角色更多個性。
- 英偉達Cuda計算模型現在服務於400萬開發者和超過3000個應用程序。Cuda的下載量達到了4000萬次,其中僅去年一年就達到了2500萬次。
- GPU服務器HGX H100的全面量產已經開始,他補充說,這是世界上第一台裝有變壓器引擎的計算機。
- 黃仁勳將英偉達2019年以69億美元收購超級計算機芯片製造商Mellanox稱為其有史以來做出的“最偉大的戰略決策之一”。
- 下一代Hopper GPU的生產將於2024年8月開始,也就是第一代開始生產兩年後。
- 英偉達的GH200 Grace Hopper現已全面投產。超級芯片提升了4 PetaFIOPS TE、72個通過芯片到芯片鏈路連接的Arm CPU、96GB HBM3和576 GPU內存。黃仁勳將其描述為世界上第一個具有巨大內存的加速計算處理器:“這是一台計算機,而不是芯片。” 它專為高彈性數據中心應用而設計。
- 如果Grace Hopper的內存不夠用,英偉達有解決方案——DGX GH200。它是通過首先將8個Grace Hoppers與3個NVLINK交換機以900GB傳輸速度的Pod連接在一起,再將32個這樣的組件連接在一起,再加上一層開關,連接總共256個Grace Hopper芯片。由此產生的ExaFLOPS Transformer Engine具有144 TB的GPU內存,可用作巨型GPU。黃仁勳說Grace Hopper速度非常快,可以在軟件中運行5G堆棧。Google雲、Meta和微軟將是第一批獲得DGX GH200 訪問權限的公司,並將對其功能進行研究。
- 英偉達和軟銀已建立合作夥伴關係,將Grace Hopper超級芯片引入軟銀在日本的新分佈式數據中心。這些將能夠在多租戶通用服務器平台中託管生成式人工智能和無線應用程序,從而降低成本和能源。
- 軟銀和英偉達的合作夥伴關係將基於英偉達MGX參考架構,該架構目前正在與一些公司合作使用。它為系統製造商提供了一個模塊化的參考架構,幫助他們構建100多個用於AI、加速計算和全方位用途的服務器變體。合作的公司包括ASRock Rack、ASUS、Gigabyte、Pegatron、QCT和Supermicro。
- 黃仁勳發布了Spectrum-X加速網絡平台,以提高基於以太網的雲的速度。它包括Spectrum 4交換機,它有128個端口,每秒400GB和每秒51.2TB的傳輸速度。黃仁勳說,該交換機旨在實現新型以太網,並設計為端到端以進行自適應路由、隔離性能和進行結構內計算。它還包括Bluefield 3 Smart Nic,它連接到Spectrum 4交換機以執行擁塞控制。
- 世界上最大的廣告公司WPP已與英偉達NVIDIA 合作開發基於NVIDIA Omniverse 的內容引擎。它將能夠製作用於廣告的照片和視頻內容。
- 機器人平台英偉達Isaac ARM現在可供任何想要構建機器人的人使用,並且是全棧的,從芯片到傳感器。Isaac ARM從名為Nova Orin 的芯片開始,是第一個機器人全參考堆棧,Huang 說。
在發布會上,黃仁勳還展示了生成式AI以文字形式輸入然後以其他媒體輸出內容的能力。他要求播放與清晨心情相配的音樂,而在另一篇文章中,他列出了一些歌詞,然後使用AI將這個想法轉化為一首活潑的流行歌曲:
現在每個人都是創作者。
值得注意的是,本次大會上,黃仁勳向傳統CPU服務器集群發起“挑戰”。他直言,認為在人工智能和加速計算這一未來方向上,GPU服務器有著更為強大的優勢。
黃仁勳解釋稱,傳統上電腦或服務器最重要的CPU,這個市場主要參與者包括英特爾和AMD。但隨著需要大量計算能力的AI應用出現,GPU將成為主角,英偉達主導了當前全球AI GPU 市場。
黃仁勳在演講上展示的範例,訓練一個LLM大語言模型,將需要960個CPU組成的服務器集群,這將耗費大約1000萬美元,並消耗11千兆瓦時的電力。相比之下,同樣以1000萬美元的成本去組建GPU服務器集群,將以僅3.2千兆瓦時的電力消耗,訓練44個LLM大模型。
如果同樣消耗11千兆瓦時的電量,那麼GPU服務器集群能夠實現150倍的加速,訓練150個LLM大模型,且佔地面積更小。而當用戶僅僅想訓練一個LLM大模型時,則只需要一個40萬美元左右,消耗0.13千兆瓦時電力的GPU服務器即可。
換言之,相比CPU服務器,GPU服務器能夠以4%的成本和1.2%的電力消耗來訓練一個LLM,這將帶來巨大的成本節省。
根據Trend Force的數據,2022年搭載GP GPU的AI服務器年出貨量佔全部服務器的比重接近1%,2023年在ChatGPT等人工智能應用加持下,AI服務器出貨量有望同比增長8%,2022~2026年出貨量CAGR有望達10.8%,以AI服務器用GPU,主要以公司H100、A100、A800(主要出貨中國)以及AMD MI250、MI250X系列為主,而英偉達與AMD的佔比約8:2。
基於IDC預測2026年全球服務器出貨量1877萬台、AI服務器的佔比逐年提升1%,同時AI服務器中GPU的搭載數量逐年提升0.5個百分點、隨著GPU產品迭代,GPU單價逐年提升2000美元,國金證券基於上述基礎預測,2026年全球數據中心GPU市場規模有望達224億美元。