你看過晶圓大小的晶片嗎?這家AI獨角獸推新品對標英偉達H100
當晶片製造商都在試圖將晶片往小了設計時,而這家公司卻反其道而行。半導體新創公司Cerebras Systems公司週三(3月13日)推出了一款新的晶片WSE-3,而它的尺寸卻類似晶圓大小,或者說比一本書還要大,單體面積達到約462.25平方公分。它是目前最大GPU面積的56倍。
據悉,該款晶片將4兆個電晶體組織在90萬個核心中。
該晶片針對人工智慧訓練的工作負載進行了優化。Cerebras公司聲稱,配備了2048個WSE-3晶片的伺服器叢集可以在一天內訓練出市場上最先進的開源語言模型之一Llama 2 70B。
替代英偉達
Cerebras是美國人工智慧晶片的獨角獸企業,它背後的投資團隊也都實力夠硬。最新一筆融資是在2021年由Alpha Wave Venture和阿布達比成長基金領投,融資金額2.5億美元,其他的投資人士包括:OpenAI創辦人山姆·奧特曼、AMD前首席技術官Fred Weber等。
2021年,Cerebras公司首次亮相了WSE-2晶片,整合了1.2兆個電晶體、40萬個核心。在同業都在將晶圓分割成數百顆獨立晶片之時,Cerebras公司則是選擇將整個晶圓做成一顆晶片。
而最新發布的WSE-3則是從WSE-2改進而來的。它較WES-2增加了1.4兆個電晶體,並擁有90萬個運算核心、44GB的板載SRAM記憶體。強化部分是透過從7奈米製造製程更新到5奈米節點所實現的。
據該公司稱,WSE-3在人工智慧工作負載方面的性能是其前身的兩倍,它的峰值速度可以達到每秒125千萬億次計算。
Cerebras也將WSE-3定位為比英偉達顯示卡更有效率的替代品。根據Cerebras官網的數據,該晶片4兆個電晶體數完全碾壓了英偉達H100 GPU的800億個;核處理器數是單一英偉達H100 GPU的52倍;片上儲存量是H100的880倍。
WSE-3晶片為Cerebras公司的CS-3超級電腦提供動力,CS-3可用於訓練多達24兆個參數的人工智慧模型,對比由WSE-2和其他常規人工智慧處理器驅動的超級計算機,這項數據是個重大飛躍。
加速資料傳輸
雖然將晶圓大小的晶片和單一英偉達H100 GPU相比較並不公平,不過若從資料傳輸速度的角度來看,不將晶圓切割成單獨的晶片確實有它的優勢。
根據Cerebras公司的說法,使用單一的大型處理器可以提高人工智慧訓練工作流程的效率。當WSE-3上的4兆個電晶體在晶圓上互連時,將會大大加快生成式人工智慧的處理時間。
人工智慧模型就是相對簡單的程式碼片段的集合,這些程式碼片段被稱為人工神經元。這些神經元被重新組織成集合(稱為層)。當人工智慧模型接收到一個新任務時,它的每一層都會執行任務的一部分,然後將其結果與其他層產生的資料結合。
由於神經網路太大,無法在單一GPU上運行,因此,這些層需要分佈在數百個以上的GPU上,透過頻繁地交換資料來協調它們的工作。
基於神經網路架構的具體特性,只有獲得前一層的全部或部分激活數據,才能在開始分析數據,並提供給下一層。也意味著,如果這兩層的資料運行在不同的GPU上,資訊在它們之間傳輸可能需要很長時間。晶片之間的物理距離越大,資料從一個GPU轉移到另一個GPU所需的時間就越長,這會減慢處理速度。
而Cerebras的WSE-3可望縮短此處理時間。如果一個人工智慧模型的所有層都在一個處理器上運行,那麼資料只需要從晶片的一個角落傳輸到另一個角落,而不是在兩個顯示卡之間傳輸。減少資料必須覆蓋的距離可以減少傳輸時間,從而加快處理速度。
該公司指出,在如今的伺服器叢集中,數以萬計的GPU被用來處理一個問題,而若是將晶片數量減少50倍以上,就可以降低互連成本以及功效,同時或許也可以解決消耗大量電力的問題。
Cerebras聯合創始人兼CEO Andrew Feldman稱,「當我們八年前開始這趟旅程時,每個人都說晶圓級處理器是白日夢…WSE-3是世界上最快的人工智慧晶片,專為最新的尖端人工智慧工作而打造。”
對於新推出地WSE-3晶片,分析公司Intersect360 Research執行長Addison Snell認為,Cerebras的WSE-3人工智慧晶片和CS-3系統可以讓部分高效能運算用戶受益。
他指出,“該晶片在相同的成本和功率下將性能提高了一倍。”
不過,Tirias Research創辦人Jim McGregor則較為現實地指出,儘管這家新創公司成長迅速,並且有能力提高其平台的可擴展性,但與占主導地位的人工智慧供應商英偉達相比,它仍然是規模較小的公司。
他也指出,Cerebras專注於人工智慧的一個方面,那就是訓練,不過訓練只是大型語言模型市場的利基市場。而英偉達提供了許多其他方面產品。