普林斯頓大學的先進AI晶片計畫得到了DARPA和EnCharge AI 的支持
普林斯頓大學的先進人工智慧晶片計畫得到了DARPA和EnCharge AI 的支持,有望大幅提高能源效率和運算能力,旨在徹底改變人工智慧的可及性和應用。
普林斯頓大學的研究人員完全重新想像了運算的物理原理,為現代人工智慧工作負載打造了一款晶片,在美國政府的新支援下,他們將看到這款晶片的速度、結構和能源效率有多快。上圖為早期原型。圖片來源:Hongyang Jia/普林斯頓大學
美國國防部最大的研究機構與普林斯頓大學合作,開發人工智慧的先進微晶片。電子與電腦工程學教授納文-維爾馬(Naveen Verma)表示,新硬體為現代工作負載重新設計了人工智慧晶片,與當今最先進的半導體相比,它能以更低的能耗運行強大的人工智慧系統。Verma 將領導這個項目,他說,這些進展突破了阻礙人工智慧晶片的關鍵障礙,包括尺寸、效率和可擴展性。
不
從筆記型電腦、手機、醫院、高速公路到低地球軌道甚至更遠的地方,都可以部署能耗更低的晶片來運行人工智慧。為當今最先進的模型提供動力的晶片過於笨重且效率低下,無法在小型設備上運行,主要局限於伺服器機架和大型資料中心。
現在,美國國防部高級研究計畫局(Defense Advanced Research Projects Agency,簡稱DARPA)宣布,將以維爾馬實驗室的一系列關鍵發明為基礎,撥款1,860 萬美元支持維爾馬的工作。DARPA 的資助將推動對新晶片的速度、結構和能源效率的探索。
維爾馬說:”最好的人工智慧僅僅存在於資料中心,這是一個非常重要的限制。我認為,如果能從中解鎖,那麼我們能從人工智慧中獲得價值的方式就會爆炸性增長。 “
納文-維爾馬(Naveen Verma)教授將領導一個由美國支持的項目,在其普林斯頓實驗室的一系列關鍵發明的基礎上,為人工智慧硬體增效。圖片來源:Sameer A. Khan/Fotobuddy
這項宣布是DARPA 為下一代人工智慧計算的”科學、設備和系統的革命性進步”提供資金的更廣泛努力的一部分。該計劃名為OPTIMA,包括多個大學和公司的項目。該計劃的提案徵集活動預計資助總額為7800 萬美元,但DARPA 尚未披露完整的機構名單或該計劃迄今為止已發放的資助總額。
EnCharge AI 的出現
在普林斯頓領導的這個計畫中,研究人員將與Verma 的新創公司EnCharge AI 合作。EnCharge AI 位於加州聖克拉拉市,正在將基於維爾馬實驗室發現的技術商業化,其中包括他與電機工程研究生共同撰寫的幾篇關鍵論文,最早可追溯到2016 年。
根據專案提案,Encharge AI”在開發和執行穩健、可擴展的混合訊號運算架構方面具有領先地位”。Verma 於2022 年與前IBM 研究員Kailash Gopalakrishnan 和半導體系統設計領域的領導者Echere Iroaga共同創辦了這家公司。
戈帕拉克里什南說,在人工智慧開始對運算能力和效率提出大量新需求的時候,現有運算架構的創新以及矽技術的改進恰恰開始放緩。即使是用於運行當今人工智慧系統的最好的圖形處理器(GPU),也無法緩解行業面臨的記憶體和計算能源瓶頸。
他說:”雖然GPU 是目前最好的工具,但我們得出結論,需要一種新型晶片來釋放人工智慧的潛力。”
改變人工智慧運算格局
普林斯頓大學凱勒工程教育創新中心(Keller Center for Innovation in Engineering Education)主任維爾馬錶示,從2012年到2022年,人工智慧模型所需的運算能力成長了約100萬倍。為了滿足需求,最新的晶片內建了數百億個晶體管,每個電晶體之間的間隔只有一個小病毒的寬度。然而,這些晶片的運算能力密度仍不足以滿足現代需求。
當今的領先模型結合了大型語言模型、電腦視覺和其他機器學習方法,每個模型都使用了超過兆個變數。英偉達(NVIDIA)設計的GPU 推動了人工智慧的蓬勃發展,如今已變得如此珍貴,據說各大公司都透過裝甲車來運輸這些GPU。購買或租賃這些晶片的積壓量已達到消失點。
當英偉達(NVIDIA)成為史上第三家估值達到2 兆美元的公司時,《華爾街日報》報道稱,在該公司不斷增長的收入中,迅速增加的份額並非來自於開發模型(稱為訓練),而是來自於晶片,這些晶片使人工智慧系統在訓練完成後能夠投入使用。技術專家將這一部署階段稱為推理。維爾馬說,推理是他的研究在中短期內影響最大的領域。
“這一切都是為了分散人工智慧,將其從資料中心釋放出來,」他說。「它必須從資料中心轉移到我們和與我們息息相關的流程最能存取計算的地方,那就是手機、筆記型電腦、工廠等這些地方。”
創新人工智慧晶片技術
為了製造出能在緊湊或能源受限的環境中處理現代人工智慧工作負載的晶片,研究人員必須徹底重新想像計算的物理原理,同時設計和封裝硬件,使其能用現有的製造技術製造,並能與現有的運算技術(如中央處理器)良好配合。
“人工智慧模型的規模已經爆炸性增長,”維爾馬說,”這意味著兩件事。人工智慧晶片在做數學運算時需要變得更加高效,在管理和移動資料時也需要變得更有效率。 “
他們的方法有三個關鍵部分。幾乎每台數位計算機的核心架構都遵循著20 世紀40 年代首次開發的一種簡單得令人難以置信的模式:在一個地方存儲數據,在另一個地方進行計算。這意味著資訊要在儲存單元和處理器之間穿梭。在過去的十年中,維爾馬率先研究了一種更新的方法,即直接在儲存單元中進行計算,這種方法被稱為記憶體計算。這是第一部分。記憶體運算有望減少移動和處理大量資料所需的時間和能源。
但迄今為止,記憶體計算的數字方法還非常有限。維爾馬和他的團隊轉向了另一種方法:模擬計算。這是第二部分。
“在記憶體運算的特殊情況下,你不僅需要高效地進行計算,”維爾馬說,”還需要以非常高的密度進行計算,因為現在它需要裝在這些非常小的存儲單元中。模擬計算機並不是將訊息編碼成一系列的0 和1,然後使用傳統的邏輯電路來處理這些訊息,而是利用設備更豐富的物理特性。齒輪的弧度。導線保持電荷的能力。”
20 世紀40 年代,數位訊號開始取代類比訊號,這主要是因為二進位代碼能更好地適應計算的指數級增長。但是,數位訊號無法深入挖掘設備的物理特性,因此需要更多的資料儲存和管理。因此,數位訊號的效率較低。類比訊號的效率來自於利用設備的固有物理特性來處理更精細的訊號。但這可能需要在精度上做出權衡。
維爾馬說:”關鍵在於找到合適的物理學原理,並將其應用於可控性極強、可大規模製造的設備中。”
他的團隊找到了一種方法,可以利用專門設計的電容器產生的類比訊號進行高精度計算,從而實現精確的開關。這是第三部分。與電晶體等半導體裝置不同,透過電容器產生的電能並不取決於材料中的溫度和電子遷移率等可變條件。
“它們只取決於幾何形狀,”維爾馬說。”它們取決於一根金屬線與另一根金屬線之間的空間。當今最先進的半導體製造技術可以很好地控制幾何形狀。”
編譯自: ScitechDaily