IBM的新型模擬人工智能芯片比GPU更高效
IBM Research 最近發表了一篇論文,揭示了一種模擬芯片的開發情況,該芯片有望在人工智能推理任務中實現GPU 級別的性能,同時大幅提高能效。目前,GPU 被廣泛用於人工智能處理,但其高能耗不必要地增加了成本。
新的模擬人工智能芯片仍在開發中,它能夠在同一位置同時計算和存儲內存。這種設計模擬了人腦的運作,從而提高了能效。該技術不同於當前的解決方案,當前的解決方案需要在內存和處理單元之間不斷移動數據,從而降低了計算能力,增加了功耗。
在該公司的內部測試中,在評估模擬內存計算的計算精度時,新芯片在CIFAR-10 圖像數據集上顯示出92.81% 的準確率。IBM 聲稱,這一精確度水平可與採用類似技術的任何現有芯片相媲美。更令人印象深刻的是它在測試過程中的能效,每次輸入僅消耗1.51 微焦耳的能量。
上週發表在《自然-電子學》(Nature Electronics)上的這篇研究論文還提供了有關該芯片構造的更多信息。該芯片採用14 納米互補金屬氧化物半導體(CMOS)技術製造,擁有64 個模擬內存計算內核(或瓦片)。每個內核都集成了一個256 x 256 的突觸單元交叉陣列,能夠執行與一層深度神經網絡(DNN)模型相對應的計算。此外,該芯片還配備了一個全局數字處理單元,能夠執行對某些類型的神經網絡至關重要的更複雜運算。
IBM 的新芯片是一項引人關注的進步,尤其是考慮到近來人工智能處理系統的功耗呈指數級增長。有報告顯示,人工智能推理機架的耗電量通常是普通服務器機架的10 倍,這導致了高昂的人工智能處理成本和環境問題。在這種情況下,任何能提高處理效率的改進都會受到業界的熱烈歡迎。
作為額外的好處,專用的高能效AI 芯片有可能減少對GPU 的需求,從而降低遊戲玩家的價格。不過,值得注意的是,這目前只是推測,因為IBM 芯片仍處於開發階段。其過渡到大規模生產的時間表仍不確定。在此之前,GPU 仍將是人工智能處理的主要選擇,因此在不久的將來,GPU 的價格不太可能變得更低。