英偉達探索COPA多芯片GPU模塊架構以滿足不斷變化的數據需求
當前的深度學習應用,正收到復雜性增長、資源需求多樣化、以及現有硬件架構的限制。不過近日,英偉達研究人員發表了一篇技術文章,概述了該公司對多芯片模塊(MCM)的探索。具體說來是,該團隊講述了“可組合封裝”(COPA)GPU 的各項優勢,尤其是能夠適應各種類型的深度學習工作負載。
資料圖(via Nvidia 官網)
得益於固有的功能和優化,圖形處理單元(GPU)已成為大量深度學習(DL)研究項目的首選。但由於傳統融合GPU 解決方案正迅速變得不太實用,研究人員才想到到COPA-GPU 的理念。
這些融合GPU 解決方案依賴於由傳統芯片組成的架構,輔以高帶寬內存(HBM)、張量核心(NVIDIA)/ 矩陣核心(Matrix Cores)、光線追踪(RT)等專用硬件的結合。
此類硬件或在某些任務下非常合適,但在面對其它情況時卻效率低下。與當前將所有特定執行組件和緩存組合到一個包中的單片GPU 設計不同,COPA-GPU 架構具有混合/ 匹配多個硬件塊的能力。
如此一來,它就能夠更好地適應當今高性能計算(HPC)只能夠呈現的動態工作負載、以及深度學習(DL)環境。
(來自:ACM.org | PDF)
這種整合更多功能和適應多種類型工作負載的能力,可帶來更高水平的GPU 重用。更重要的是,對於數據科學家們來說,這使得他們更有能力利用現有資源,來突破潛在的界限。
儘管經常混為一談,但人工智能(AI)、機器學習(ML)和深度學習的概念,卻有著明顯的區別。DL 可視作AI 和ML 的子集,主要通過各種過濾器來預測和分類信息,來模擬人腦的信息處理方式。
作為諸多自動化AI 功能背後的技術支撐,深度學習可助力其實現各項功能—— 涵蓋從自動駕駛、到監控金融系統的欺詐活動等領域。
另一方面,MCM 概念已於過去幾年被炒得火熱(其實可追溯到70~80 年代的IBM 氣泡內存/ 3081 大型機),且AMD等廠商早已將小芯片/ 芯片堆疊技術作為其下一代產品的重要演變。