Google展示用於雲端運算的NVIDIA”Blackwell”NVL72 生產型系統
上週,Microsoft Azure 的英偉達”Blackwell”GB200 系統測試開機,預覽版顯示,資料中心中的機架實際上只有三分之一用於放置運算元件,其餘三分之二用於放置冷卻艙,以冷卻數十個GB200 GPU 產生的巨大熱量。 今天,Google在10 月30 日舉行的Google雲端應用開發高峰會(Google Cloud App Dev & Infrastructure Summit)之前,以數位形式展示了自己的部分基礎設施。
下面展示的是兩個並排而立的機架,它們將英偉達”Blackwell”GB200 NVL卡與Google基礎設施的其他部分連接起來。
有一個機架上安裝了配電裝置、網路交換器和冷卻配電裝置,所有這些都與電腦架相連,電腦架上安裝了電源、GPU 和CPU 伺服器。網路設備一應俱全,並連接到Google的”全球”資料中心網絡,也就是Google自己的資料中心結構。
我們不清楚這些機架之間選擇的結構連接是什麼;為了獲得最佳性能,英偉達推薦使用InfiniBand(Mellanox 收購)。 不過,鑑於Google的基礎設施設置不同,可能會使用乙太網路交換器。
有趣的是,Google的GB200 機架設計與Azure 不同,它使用額外的機架空間將冷卻劑分配到本地熱交換器,即冷卻器。我們很想知道Google是否會發布更多有關基礎設施的信息,因為Google一直被稱為基礎設施之王,因為它有能力擴展並保持一切井井有條。