NVIDIA或放棄大核心GPU戰略,16nm 36模塊“膠水”GPU來了
從Kpler時代開始,NVIDIA為了兼顧GPU計算及遊戲兩個市場採取了不同的市場戰略——GX100/102大核心主要面向GPU計算市場,GX104/106主流核心則面向遊戲GPU,砍掉了對遊戲無大用的雙精度運算,降低複雜性,減少芯片面積以節省成本、降低功耗。
大核心的好處及代價都是非常明顯的,但是隨著摩爾定律終結,製造大核心芯片的工藝越來越複雜,成本也越來越貴,NVIDIA對7nm工藝就表示了明顯的抵觸,那他們有什麼殺招嗎?NVIDIA未來有可能放棄單一大核心GPU戰略,他們已經研究了RC18超小核——基於台積電16nm工藝,晶體管數量只有8700萬個,但一個GPU芯片內可以堆疊36個這樣的小核心,換句話說NVIDIA未來也要走AMD、英特爾那樣的膠水多模芯片路線了。
膠水多模這個說法並不嚴謹,只是網友的調侃,實際上這是目前半導體業界都在研究的Chiplets技術,簡單來說就是在一個芯片內堆疊不同的核心單元,不同的核心可以是不同架構的,也可以是不同工藝的,而這樣做的原因就是半導體製造工藝越來越複雜,製造大核心的難度及成本都居高不下,而且還會有浪費,因為並不是所有核心單元都需要最先進的工藝。
AMD的7nm 64核羅馬處理器就是這樣的代表,CPU核心是7nm工藝的,一個芯片內最多可以堆疊8組CPU單元,總計64核心,而IO核心則是14nm工藝的。
英特爾這邊也有類似的戰略,除了48核膠水封裝的Cascade Lake-AP處理器之外,英特爾還有真正的Chiplets設計——Foreros 3D封裝,也可以將不同架構、不同工藝的核心封裝在一起。
AMD、NVIDIA現在是在CPU處理器上應用了Chiplets設計,而NVIDIA則是準備在GPU芯片上研究MCM多模封裝技術。來自日本PCWatch網站的報導,NVIDIA研究部門主管、首席科學家、高級研究副總裁William J. Dally日前就公開了一個名為RC 18的芯片項目,這是一款適用於深度學習的加速器芯片,基於台積電16nm FinFET工藝,晶體管數量只有8700萬個,相比現在動輒數十億乃至上百億的GPU芯片來說絕對是輕量級的芯片了。
但是RC18芯片只是基礎,NVIDIA研究的目標是在芯片上集成多個基於RC18的MCM模塊,目前已經做到了36模塊堆棧,詳細的技術細節可以參考PCWatch的原文。值得一提的是,RC18不僅是GPU,NVIDIA還在其中集成了RISC-V指令集的CPU核心,雖然只有5級流水線、單發射順序指令架構。
結合這裡的情況來看,現在大家應該可以理解NVIDIA對7nm工藝為何如此冷淡了。