MLPerf最新結果公佈NVIDIA仍是“王者”
MLCommons社區發布了最新的MLPerf2.0基準測評結果。在新一輪的測試中,MLPerf新添加了一個對象檢測基準,用於在更大的OpenImages 數據集上訓練新的RetinaNet,MLperf表示,這個新的對象檢測基準能夠更準確反映適用於自動駕駛、機器人避障和零售分析等應用的先進機器學習訓練成果。
MLPerf2.0的結果與去年12月發布的v1.1結果大致相同,AI的總體性能比上一輪發布提高了大約1.8倍。
有21家公司和機構在最新一輪的測試中提交了MLPerf基準測試的成績,提交的成績總數超過了260份。
英偉達依然“打滿全場”
本次測試中,英偉達依然是唯一一家完成2.0版本中全部八項基準測試的參與者。這些測試包含了目前流行的AI用例,包括語音識別、自然語言處理、推薦系統、目標檢測、圖像分類等方面的內容。
除了英偉達之外,沒有其他加速器運行過所有基礎測試。而英偉達自2018年12月首次向MLPerf提交測試結果以來就一直完成所有基礎測試。
共有十六家合作夥伴使用了英偉達平台提交了本輪測試結果,包括華碩、百度、中國科學院自動化研究所、戴爾科技、富士通、技嘉、新華三、慧與、浪潮、聯想、寧暢和超微。在這一輪MLPerf的基準測試結果中,英偉達及其合作夥伴佔了所有參賽生態夥伴的90%。
這顯示出了英偉達模型良好的通用性。
通用性在實際生產中,為模型協同工作提供了基礎。AI應用需要理解用戶的要求,並根據要求對圖像進行分類、提出建議並以語音信息的形式進行回應。
要完成這些任務,需要多種類型的人工智能模型協同工作。即使是一個簡單的用例也需要用到將近10個模型,這就對AI模型通用性提出了要求。
好的通用性意味著用戶在整個AI流程中可以盡可能的使用相同的設施工作,並且還能夠兼容未來可能出現的新需求,從而延長基礎設施的使用壽命。
AI處理性能三年半提高23倍
在本次基準測評結果中,NVIDIA A100仍然保持了其單芯片性能的領軍者地位,在八項測試中的四項中取得了最快速度的成績。
兩年前,英偉達在MLPerf 0.7的基準測試中首次使用了A100 GPU,這次已經是英偉達第四次使用該GPU提交基準測試成績。
自MLPerf問世以來的三年半時間裡,英偉達AI平台在基準測試中已經實現了23倍的性能提升。而自首次基於A100提交MLPerf基準測試兩年以來,英偉達平台的性能也已經提高了6倍。
性能的不斷提升得益於英偉達在軟件上的創新。持續釋放了Ampere架構的更多性能,如在提交結果中大量使用的CUDA Graphs可以最大限度地減少跨多加速器運行的啟動開銷。
值得注意的是在本輪測試中英偉達沒有選擇使用其最近發布的Hopper GPU,而是選擇了基於英偉達Ampere架構的NVIDIA A100 Tensor Core GPU。
英偉達Narasimhan 表示英偉達更希望專注於商業上可用的產品,這也是英偉達選擇在本輪中基於A100提交結果的的原因。
鑑於新的Hopper Tensor Cores能夠應用混合的FP8和FP16精度的數據,而在下一輪MLPerf測試中英偉達很有可能會採用Hopper GPU,可以預見在下一輪基準測試中,英偉達的成績有望取得更大的飛躍。