Panmnesia發布CXL協定允許AI GPU以最小的延遲利用各類內存
韓國科學技術院(KAIST)的一家新創公司Panmnesia推出了一種尖端IP,可透過PCIe 上的CXL 協定為人工智慧GPU 添加外部記憶體,從而打破了記憶體容量的障礙,提供有效的基礎設施來解決HBM的局限性。
目前的人工智慧加速器僅限於板載內存,而製造商只能提供非常有限的HBM。隨著資料集的不斷增長和對功耗的需求,業界正專注於增加更多的人工智慧GPU,而考慮到其所佔用的財務和製造資源,這種方法從長遠來看是不可持續的。有鑑於此,由韓國KAIST 研究所支持的公司Panmnesia 推出了一個CXL IP,可以讓GPU 利用DRAM 甚至SSD 的內存,擴展內建的HBM。
為了實現連接,CXL 採用了PCIe 鏈接,確保在消費者中廣泛採用。不過,這也有一個問題。傳統的人工智慧加速器缺乏必要的子系統,無法直接連接並利用CXL 進行記憶體擴展,而且UVM(統一虛擬記憶體)等解決方案的速度相當慢,這就失去了初衷。
不過,作為一種解決方案,Panmnesia 開發出了自己的符合CXL 3.1 標準的Root Complex 晶片,它有多個端口,透過PCIe 總線連接GPU 和外部內存,HDM(主機管理設備內存)解碼器則充當連接的橋樑,管理記憶體分配和轉換。
有趣的是,Panmnesia 決定將他們的解決方案(CXL-Opt)與三星和Meta 開發的原型產品(他們稱之為”CXL-Proto”)進行基準測試。令我們驚訝的是,CXL-Opt 的往返延遲(即資料從GPU 傳輸到記憶體再返回所需的時間)大大降低。 CXL-Opt 的延遲時間為兩位數奈秒,而CXL-Proto 的延遲時間為250ns。除此之外,CXL-Opt 的執行時間遠遠少於UVM 解決方案,因為它的IPC 效能速度是UVM 的3.22 倍。
Panmnesia 的解決方案可以在市場上取得巨大進步,因為它是堆疊HBM 晶片和實現更高效解決方案之間的中介。鑑於該公司是首批擁有創新CXL IP 的公司之一,如果這項技術獲得認可,Panmnesia 將受益匪淺。