超微獲得NVIDIA Blackwell AI伺服器巨額訂單佔總供應量的25%
在人工智慧運算領域風頭正盛的超微型電腦公司(Supermicro Computer)收到了基於NVIDIA Blackwell 人工智慧GPU 的巨額伺服器機架訂單。超微電腦希望透過供應鏈的進步與富士康等公司競爭,加速NVIDIA Blackwell AI 伺服器訂單的交付。
在人工智慧的熱潮中,SMCI(超微電腦公司)在相當長的一段時間裡都是市場的頭條新聞。該公司不僅股價表現優異,年增182%,而且還成功地與英偉達(NVIDIA)建立了合作關係,成為市場的焦點。 SMCI 專注於專為人工智慧工作負載設計的高效能伺服器和儲存系統,在過去幾個季度裡,訂單大量湧入。
現在,該公司正尋求將業務擴展到更先進的NVIDIA Blackwell AI GPU 架構,因為有報告指出超微電腦公司已經收到了以Blackwell 為核心的AI 伺服器機架的巨額訂單。台灣《經濟日報》報道稱,超微電腦公司(SMCI)準備出貨25% 的英偉達(NVIDIA)基於GB200 的Blackwell AI 伺服器,總量將達到10,000 台以上。這一次,NVIDIA似乎賦予了SMCI 更多的責任,如果進展順利,最終將轉化為巨大的經濟效益。這些系統包括:
- NVIDIA HGX B100 8-GPU 與HGX B200 8-GPU 系統
- 包含10 個GPU 的5U/4U PCIe GPU 系統
- SuperBlade 在8U 機櫃中最多可配備20 個B100 GPU,在6U 機櫃中最多可配備10 個B100 GPU
- 2U Hyper 最多可配備3 個B100 GPU
- 配備最多4 個B100 GPU 的Supermicro 2U x86 MGX 系統
為了與富士康和廣達等巨頭競爭,SMCI 決定積極拓展供應鏈,將Argosy Research 和Auras Technology 等公司納入其中。自今年年初以來,該公司已經累積了NVIDIA公司的Blackwell GB200 AI GPU,確保供應鏈流程順暢,最終保證在競爭中佔據優勢。此外,超微計算機公司已經在水冷要件方面進行了投資,據說這對較新的Blackwell AI 伺服器至關重要。以下是超微型伺服器陣容的部分特點:
- 超微型公司的NVIDIA HGX B200 8GPU 風冷和液冷系統可實現最高的生成式人工智慧訓練效能。該系統採用8 個英偉達Blackwell GPU,透過第五代NVLink 與1.5TB 高頻寬記憶體池(速度達60TB/s)連接,以加快人工智慧訓練工作負載的速度。
- 超微最暢銷的人工智慧訓練系統–配備NVIDIA HGX H100/H200 8-GPU 的4U/8U 系統,將支援英偉達即將推出的HGX B100 8-GPU。
- 超微機架級解決方案採用GB200 Superchip 系統作為伺服器節點,每個節點配備2 個Grace CPU 和4 個NVIDIA Blackwell GPU。超微的直接到晶片液冷技術最大限度地提高了密度,在一個44U ORV3 機架上可安裝72 個GB200 192GB GPU(每個GPU 的TDP 為1200W)。
由此看來,SMCI 希望這次以更積極的方式回歸,透過與NVIDIA的密切關係,只要他們能保持供應鏈和產品質量,就可以繼續保持現有的市場地位。