創新的微芯片設計將計算推到邊緣使人工智能可以實時使用
為了應對人工智能對計算機網絡的爆炸性需求,普林斯頓大學的研究人員近年來從根本上提高了專門的人工智能係統的速度並減少了其能源使用。現在,研究人員通過創建共同設計的硬件和軟件,使設計者能夠將這些新型系統融合到他們的應用中,使他們的創新更接近於廣泛使用。
通過減少電力需求和從遠程服務器交換數據的需要,用普林斯頓技術製造的系統將能夠把人工智能應用,如無人機的駕駛軟件或高級語言翻譯帶到計算基礎設施的最邊緣。
新的芯片基於模擬計算,它使用電路來模擬正在解決的方程,而不是像數字計算機那樣產生1和0。
兩年前,普林斯頓大學的研究團隊製作了一種新的芯片,旨在提高神經網絡的性能,而神經網絡是當今人工智能的精髓。該芯片的性能比其他先進的微芯片好幾十到幾百倍,在幾個方面標誌著一種革命性的方法。事實上,該芯片與目前用於神經網絡的任何東西都有很大的不同,以至於它對開發者構成了挑戰。
在接下來的兩年裡,研究人員努力完善該芯片,並創建一個軟件系統,使人工智能係統能夠利用新芯片的速度和效率。在2021年2月舉行的國際固態電路虛擬會議上,主要作者、Verma研究實驗室的研究生Hongyang Jia描述了新軟件將如何讓新芯片與不同類型的網絡一起工作,並讓系統在硬件和軟件的執行方面都具有可擴展性。
Verma的團隊開發了新的芯片,以應對日益增長的人工智能需求和人工智能對計算機網絡的負擔。人工智能使機器能夠模仿學習和判斷等認知功能,在圖像識別、翻譯和自動駕駛汽車等新技術中發揮了關鍵作用。理想情況下,無人機導航等技術的計算將基於無人機本身,而不是在一個遠程網絡計算機中。但數字微芯片的功率需求和對內存存儲的需求會使設計這樣的系統變得困難。通常情況下,該解決方案將大部分計算和內存放在一個遠程服務器上,該服務器與無人機進行無線通信。但是這增加了對通信系統的要求,並引入了安全問題和向無人機發送指令的延遲。
為了解決這個問題,普林斯頓大學的研究人員從幾個方面重新考慮了計算。首先,他們設計了一個芯片,在同一個地方進行計算和存儲數據。這種技術被稱為內存計算,削減了用於與專用存儲器交換信息的能量和時間。這項技術提高了效率,但也帶來了新的問題:由於它將兩種功能塞進了一個小區域,內存計算依賴於模擬操作,而模擬操作對電壓波動和溫度尖峰等來源的破壞很敏感。為了解決這個問題,普林斯頓大學的團隊使用電容器而不是晶體管設計他們的芯片。電容器是儲存電荷的設備,可以以更高的精度製造,並且不受電壓變化的影響。電容器也可以非常小,並放置在存儲單元的頂部,增加處理密度並削減能源需求。
為了解決這個問題,普林斯頓大學的研究人員從幾個方面重新考慮了計算。首先,他們設計了一個芯片,在同一地方進行計算和存儲數據。這種技術被稱為內存計算,它削減了與專用存儲器交換信息所需的能量和時間。這項技術提高了效率,但也帶來了新的問題:由於它將兩種功能塞進了一個小區域,內存計算依賴於模擬操作,而模擬操作對電壓波動和溫度尖峰等來源的破壞很敏感。為了解決這個問題,普林斯頓大學的團隊使用電容器而不是晶體管設計他們的芯片。電容器是儲存電荷的設備,可以以更高的精度製造,並且不受電壓變化的影響。電容器也可以非常小,並放置在存儲單元的頂部,增加處理密度並削減能源需求。
但是,即使在使模擬操作變得強大之後,仍然存在許多挑戰。模擬核心需要有效地集成在一個主要是數字的架構中,以便它能與其他功能和軟件相結合,使實用系統實際運作。一個數字系統使用開關來表示1和0,計算機工程師用它來編寫構成計算機編程的算法。模擬計算機則採取了完全不同的方法。在IEEE Spectrum的一篇文章中,哥倫比亞大學教授Yannis Tsividis將模擬計算機描述為一個物理系統,被設計為受與程序員想要解決的問題相同的方程所支配。例如,一個算盤就是一個非常簡單的模擬計算機,一個水桶和一根軟管可以作為某些微積分問題的模擬計算機:要解決一個積分函數,可以進行數學運算,或者可以直接測量水桶裡的水。
模擬計算是貫穿第二次世界大戰的主導技術。它被用來執行從預測潮汐到指揮艦炮的功能。但模擬系統建造起來很麻煩,而且通常需要訓練有素的操作員。在晶體管緊急出現後,數字系統被證明更加有效和適應性強。但新技術和新的電路設計使工程師們能夠消除模擬系統的許多缺點。對於像神經網絡這樣的應用,模擬系統具有真正的優勢。現在,問題是如何將兩個世界的優點結合起來。
這兩類系統是相互補充的。數字系統發揮著核心作用,而使用模擬芯片的神經網絡可以極其快速有效地運行專門操作。這就是為什麼開發一個能將這兩種技術無縫、高效地整合起來的軟件系統是如此關鍵的一步。