MLPerf放榜中國AI芯片公司再獲世界第一
MLPerf最新GPT大模型推理測試放榜了!這家國產算力公司再拿世界第一,性能最高可達1.8倍英偉達H100。隨著ChatGPT等AIGC應用掀起大模型浪潮,算力層作為基礎設施,成為最先受益的產業。
然而,算力需求大、費用昂貴等問題,已成為企業落地大模型的普通痛點,更可能製約AI向前發展:大模型參數日益增長,而算力供給瓶頸迫在眉睫,二者形成巨大矛盾。
如何探索更好的大模型算力方案,是業界共同關注的焦點。
近日,全球權威測評MLPerf 公佈最新推理測評結果,這是MLPerf首度引入GPT大模型推理測試,參與熱度再創紀錄,收到了來自英偉達、英特爾、Google、高通等企業提交的13500多項性能結果。
在MLPerf Inference 3.1中,墨芯人工智能(Moffet AI)S30計算卡在大模型GPT-J(60億參數)上,單卡、4卡、8卡的算力均獲得第一。
這是墨芯在MLPerf上連續第三次衛冕。
此前墨芯曾在MLPerf Inference 2.0與2.1上,連續兩屆獲得第一。
墨芯S30計算卡
墨芯的成績,為大模型算力方案帶來了可行的創新方向。
事實證明:結合AI模型與計算平台的軟硬協同創新,能夠釋放更大的算力潛力。這也再度印證:以稀疏計算為代表的創新技術,將是大模型時代算力發展的關鍵。
墨芯參加的是MLPerf開放分區,據主辦方MLCommons介紹,該分區旨在鼓勵創新。因此參賽者可以通過軟硬協同等方式,探索對算力的提升。
在MLPerf中的GPT-J大模型上,與4nm製程的H100純硬件加速方案相比,12nm製程的墨芯S30計算卡通過“原創的雙稀疏算法+硬件協同”方式,取得了高達1.8倍的優勢。
本次測評的GPT-J模型是生成式AI模型,墨芯S30計算卡在8卡、4卡、單卡模式下,性能分別為170.59,91.57,23.28 (Sample/s),達到英偉達H100性能的1.6倍、1.8倍、1.8倍,展現出墨芯產品在AIGC類任務上的能力。
三度奪冠,大模型算力率先“交卷”,軟硬協同持續創新——墨芯的產品實力數次經過MLPerf的嚴格檢驗,也探索出大模型算力發展的新路徑。
01
稀疏計算——大模型“潛力股”獲得市場認可
墨芯接連的優異成績,主要得益於基於稀疏化算法的軟硬協同設計。
在大模型時代,稀疏計算的重要性不言而喻:AI模型大小與其稀疏化潛力成正比。
也就是說,當模型越大,算法上有更大稀疏的可能性,稀疏計算可加速的幅度也越高。對於一般大型語言模型,稀疏計算可帶來數十倍加速。
墨芯獨創的雙稀疏算法,結合軟硬協同設計,使墨芯Antoum®芯片成為全球首款高稀疏倍率AI芯片,支持高達32倍稀疏——這也正是墨芯在本次MLPerf中創新紀錄的關鍵。
模型越大,稀疏計算的優勢越明顯——尤其是在GPT等大模型參數動輒上百億、千億的現狀下,這使得墨芯的護城河更為穩固。
墨芯的產品實力與稀疏計算的大勢所趨,也獲得了業界的認可:墨芯商業化進程接連取得重要突破,助力企業加速AI應用。
就在近日,墨芯正式成為支持Byte MLPerf的供應商之一。
來源:Byte MLPerf網站
項目地址:https://github.com/bytedance/ByteMLPerf/blob/main/README.md
當前,墨芯AI計算平台已能夠支持不同參數級別的大模型,包括BLOOM, OPT, GPT-J,LLaMA,StableDiffusion等。
同時具有高吞吐、低延時、低功耗等特點,緩解算力之困,真正為企業帶來“好用”、“用得起”的大模型算力方案。
02
帶來根本性的算力變革,稀疏計算助力大模型發展
墨芯的稀疏計算方案不僅能夠緩解當前的算力難題,也為AI的持續發展打開新的空間。
稀疏計算減少了AI模型的計算量,這意味著能讓大模型既在參數量上躍升若干個數量級的同時,又不產生過大的計算量,大模型參數增長與算力瓶頸的矛盾有望從根本上得到解決。
同時,由於計算量的減少,大模型的高算力需求、高功耗、高費用等痛點,也一併得到解決,實現“多贏”效果。
墨芯Antoum芯片:全球首款高稀疏倍率AI芯片,支持高達32倍稀疏
連續三屆MLPerf的優異成績,不僅是對墨芯產品實力的證明,也為業界帶來新啟示:在稀疏計算等技術的助力下,大模型的發展與應用有望迎來更廣闊的施展空間,加速AIGC等應用在各行各業遍地開花。
03
關於MLPerf
MLPerf由圖靈獎得主大衛•帕特森(David Patterson)聯合Google、斯坦福、哈佛大學頂尖學術機構發起成立,是權威性最高、影響力最廣的國際AI性能基準測試,以對迅速增長的AI計算需求與性能進行及時的跟踪測評。