Supermicro展示英特爾Nervana NNP-T服務器支持8路PCIe與OAM
隨著人工智能和機器學習應用的興起,研究者對於深度學習和訓練的計算量需求也日漸提升。為滿足這種密集的運算需求,通常需要相當大規模的服務器集群。在今年早些時候的Hot Chips大會上,我們已經見到過來自英特爾的Nervana NNP-T Spring Crest芯片。通過收購Nervana,英特爾獲得了打造“大型訓練芯片”所需的IP 。
(題圖via AnandTech)
據悉,該芯片基於台積電16nm 工藝製造,輔以CoWoS 和四層HBM2 內存,面積達到了680 平方毫米。本週早些時候,Supermicro 已經在超算大會上展示了最新的Nervana NNP-T 服務器。
這些硬件均基於PCIe 擴展卡,可想像它們此前被設計為可容納GPU 的傳統服務器。其採用了典型2P 佈局,可在4U 機箱中插入8 張擴展卡,且計算卡之間可以互相通信。
每顆芯片具有3.58 Tbps 的總雙向帶寬,而片外連接則支持多達1024 個節點的可伸縮性。從每張PCIe 卡片的8-pin 輔助供電來看,其峰值功率應該在標準的225W 。
本週晚些時候,Supermicro 告知其已獲准展示該系列服務器的8 路OAM(OCP 加速器模塊)版本。其能夠通過底板的PCB 保持芯片間的通信,而不是傳統的PCIe 卡對卡之類的橋接器。
這使得擴展卡之間能夠流通大量的空氣來散熱,並且兼容模塊化的OCP標準。作為英特爾首款支持bfloat16深度學習訓練的芯片,每個芯片最多支持119個TOP 。
另有60MB 片上存儲器和24 個專用的“張量”處理器集群,後者俱有雙32×32 矩陣乘法陣列。該芯片共有270 億個晶體管,內核頻率1.1 GHz、輔以32GB HBM2-2400 內存。
從技術上來講,PCIe 連接可以升級到Gen 4.0 x16,但英特爾商務CPU 支持這項特性。有人表示,為展開此類計算,一些客戶正在將頭結點從2P 升級到4P(Facebook 更是用上了8P)。
Supermicro 聲明稱,其NNP-T 系統已做好助推深度學習和訓練的部署準備。