頻頻引發關注量子計算和類腦芯片何時能達預期?
為了實現更高級別的人工智能,各方都在尋找解決方法。在現有的技術和產品上進行優化是一種收效更快的方法,然而具有革命性的新技術更能引起關注。其中,量子計算和類腦芯片每一次的進展都吸引了大量關注,它們的發展是否已經達到預期?
AI、量子計算、類腦芯片都是很早就被提出,但AI時代對量子計算和類腦芯片的需求更加迫切。原因是傳統的馮·諾依曼結構出現了瓶頸,馮·諾依曼結構中計算模塊和存儲單元分離,CPU在執行命令時必須先從存儲單元中讀取數據,所以即便CPU處理的速度再快,也要等內存。由此,基於馮·諾依曼結的AI計算面臨算力提升以及“內存牆”等挑戰。
馮·諾依曼結構
那麼,量子計算和類腦芯片都具備引領AI發展的潛力,這兩種計算方式目前進展如何?
量子計算
你以為的量子計算
量子計算機用“量子比特(qubits)”來存儲數,相比現在計算機使用的經典比特,傳統的二進制存儲數據只能是“0”或“1”的某狀態,而1個量子位可以同時存儲0和1,通過量子力學實現疊加。因此,量子計算能解決目前計算機系統無法解決的問題。
當然,提到量子計算許多人可能會想到的是量子計算的超強計算能力,比如一台50量子比特的設備運算速度可達每秒1125億億次,秒殺目前世界最強超級計算機。當然,還有人期待量子計算實現許多當下的計算機還不能實現的問題,比如密碼破解,模擬量子物理系統,模擬材料學、化學和生物學,以及解決人工智能中的很多問題。
但實際情況如何?
1980年代,量子計算機多處於理論推導狀態,1994年彼得·秀爾(Peter Shor)提出量子質因數分解算法。到了2011年5月11日,加拿D-Wave 系統公司發布了號稱“全球第一款商用型量子計算機”的計算設備“D-Wave One”,含有128個量子位。不過,該量子設備是否真的實現了量子計算當前還沒有得到學術界廣泛認同,只有證據顯示D-Wave系統在運作的時邏輯不同於傳統計算機。
之後,NASA、Google、IBM、新南威爾士大學、美國馬里蘭大學學院市分校相繼在量子計算上取得一些進展,越來越多的學術機構、公司和國家加入了量子計算的競爭。2018年,巨頭們的競爭更加激烈。
2018年量子計算備受關注
CES 2018上,英特爾宣布成功設計、製造和交付49量子比特(量子位)的超導測試芯片Tangle Lake。6月,英特爾稱研究人員正在測試一種微小的新型“自旋量子位”芯片,這款芯片比鉛筆的橡皮擦還小,是目前英特爾最小的量子計算芯片。
2018年3月,谷歌推出一款名為Bristlecone的芯片,據悉Bristlecone芯片擁有超導電路製成的72個量子比特,據稱是最大的量子芯片,超過IBM的50量子比特和英特爾的49量子比特。
同月,百度宣布成立量子計算研究所,開展量子計算軟件和信息技術應用業務研究,計劃在五年內組建世界一流的量子計算研究所,並逐步將量子計算融入到業務中。
還是3月,微軟宣布發現馬約拉納費米子的存在證據,下一步會將費米子轉化為量子,並希望在2018年年底實現,並在5年內向其他企業提供可用的量子計算機。
5月,微軟又在Build大會上宣布要在五年內造出一台擁有100個拓撲量子比特的量子計算機,並將其整合到微軟雲Azure中。
阿里巴巴量子實驗室施堯耘團隊也在5月宣布成功研製當前世界最強的量子電路模擬器太章。太章成功模擬了81(9×9)比特40 層的作為基準的谷歌隨機量子電路,之前達到這個層數的模擬器只能處理49 比特。
還是5月,《科學進展》雜誌以《A chip that allows for two-dimensional quantum walks》為題報導了上海交通大學金賢敏團隊通過“飛秒激光直寫”技術製備出節點數達49×49的光量子計算芯片。據悉,這是目前世界上最大規模的三維集成光量子計算芯片。
9月的阿里雲棲大會上,阿里CTO、達摩院院長張建鋒表示達摩院已經開始研發超導量子芯片和量子計算系統。
10月,華為在全聯接大會期間正式發布量子計算模擬器HiQ 雲服務平台,包括量子計算模擬雲服務以及量子編程框架。
12月,中國科學技術大學郭光燦院士團隊宣布成功研製出一套精簡、高效的量子計算機控制系統。
2019年首個獨立商用量子計算機推出但不被看好
量子計算在2018年引發了不少的關注,剛進入2019年,量子計算又引發巨大關注。CES 2019上IBM宣布推出世界上首個專為科學和商業用途設計的集成通用近似量子計算系統IBM Q System One,並且,IBM還計劃於2019年在紐約Poughkeepsie開設首個IBM Q 量子計算中心。
IBM Q系統的目標是解決當前經典系統無法處理的被認為是過於復雜的問題,幫助者構建量子計算機與常規架構計算機之間的接口。IBM同時指出IBM Q旨在解決量子計算最具挑戰性問題之一:持續保持用於執行量子計算的量子位的質量。
IBM看好量子計算的未來應用包括尋找新的方法模擬金融數據,隔離關鍵的風險因素以進行更好的投資,或者找到跨系統的最佳路徑,以實現超高效的物流和優化交付的運營。
IBM在量子計算的商業化方面走的更遠,其在2016年就開發出具有5位量子比特的量子計算機,並向公眾免費開放IBM Q量子計算機的雲訪問權限。
不過,外界並不看好IBM的首個獨立商用量子計算機,外媒The Verge稱:像IBM Q System One這樣的量子計算系統仍然是實驗性的。在涉及到現實生活的計算時,你的筆記本電腦可能更強大。Tech Crunch評論指出,對於大多數商業應用,一台20-Bit的機器還遠遠不夠。更有評論表示,IBM只是在自己的實驗設備外面加了一個華麗的外殼而已。
除了IBM,澳大利亞新南威爾士大學也在近日發布消息,表示該校量子計算與通信技術卓越中心(CQC2T)的研究人員已經證明,他們開創性的單原子技術可以適用於構建3D矽量子芯片,實現具有精確的層間對準和高精度的自旋狀態測量,並達成全球首款3D原子級矽量子芯片架構,朝著構建大規模量子計算機邁出了重要一步。
只是,IBM的首個獨立商用量子計算機都發布之後就備受質疑,實驗室裡的突破需要多長時間才能為構建大規模量子計算貢獻力量也不得而知。
因此,量子計算確實是未來重要的方向,各個國家和巨頭也投入大量資金進行研發,但是想要達到理想中的量子計算的狀態,還有很長的路要走,在火熱的發展中理性看待。
類腦芯片
類腦芯片架構是模擬人腦的神經突觸傳遞結構,通過模仿人腦工作原理使用神經元和突觸的方式替代傳統馮諾依曼架構,使芯片能夠進行異步、並行、低速和分佈式處理信息數據,並具備自主感知、識別和學習的能力。
類腦芯片在2018年1月迅速引發了廣泛關注,因此斯坦福大學研究院電子與微系統技術實驗室的Jeehwan Kim教授在《自然》雜誌上發表的一篇論文表示其與研究員們使用一種稱為矽鍺的材料研發了一款人工突觸芯片,可支持識別手寫字體的機器學習算法。
IBM TrueNorth引發轟動
不僅是學術界,在工業界,IBM不僅在量子計算的商用化方面進展迅速,在類腦芯片的研究中先人一步。2011年8月在模擬人腦大腦結構基礎上,研發出兩個具有感知、認知功能的矽芯片原型TrueNorth引發轟動。
2014年TrueNorth第二代發布,大小只有郵票大小的矽片上集成了100萬個“神經元”,256個“突觸”,4096個並行分佈的神經內核,用了54億個晶體管,其性能相比第一代也有不小的提升,功耗方面每平方厘米消耗20毫瓦,是第一代的百分之一,直徑為幾厘米,是第一代的十五分之一。
IBM稱如果48 顆TrueNorth芯片組建起具有4800 萬個神經元的網絡,這48顆芯片的“智力水平”將與普通老鼠相似。
2014年IBM發布第二代TrueNorth之後,直到2017年11月,科技部的消息稱IBM公司即將開發由64個TrueNorth類神經形態芯片驅動的新型超級計算機,該新型超級計算機能進行大型深度神經網絡的實時分析,可用於高速空中真假目標的區分,功耗比傳統的計算機芯片降低4個數量級。
不過,2014年IBM公佈TrueNorth後,深度學習先驅和Facebook AI研究團隊負責人Yann LeCun在一篇文章中寫道,該芯片在執行使用卷積神經網絡的深度學習模型進行圖像識別的時候會遭遇困難。
英特爾Loihi芯片比蝦腦復雜
比IBM的TrueNorth新型超級計算機消息早兩個月,英特爾在2017年9月推出了自學習神經芯片Loihi,據悉Loihi由128 個計算核心組成,每個核心有1024 個人工神經元,整個芯片共有超過13 萬個神經元和1.3 億個突觸連接。
與所有的神經元芯片一樣,Loihi模仿了大腦的運作方式,以“刺激神經元”作為其基本的計算基礎,根據環境的不同反饋模式進行操作,這些神經元代替了傳統矽片中的邏輯門,沒有將信息作為二進制的1和0進行處理,而是將它們發送的信號加權,使其功能比二進制更加模擬。
英特爾稱Loihi比當今處理器能耗比提升高達1000倍,並且稱該芯片可以適應Go 語言並使用它學習,Loihi完全不需要依賴大規模數據和大量算力的深度學習,可以自主學習(self- learning)。
也就是說,Loihi可以在單個芯片上完成訓練和推理,用於現實世界中需要實時學習的設備:自動駕駛無人機和汽車,實時適應環境中發生的狀況;用攝像頭找尋失踪人口;或者讓紅綠燈自動適應交通狀況。
在2018年,英特爾神經擬態計算項目主管Mike Davies預測,機器人將是神經擬態計算的殺手級應用。並表示英特爾已經向特定研究合作夥伴提供了首批開發系統,他們正在進行感知、馬達控制、信息處理等多種應用的研究。
需要指出的是,從神經元數量上看,Loihi芯片比一個簡單的蝦腦更複雜一些。而人類大腦由超過800億個神經元構成,也就是說,這個芯片距離模擬人類大腦的內部的複雜行為還很遙遠。
高通的Zeroth芯片到神經處理引擎
高通也在類腦芯片上積極佈局,2013年,高通表示正在打造一個全新的計算處理器,這項技術能夠模仿人類的大腦和神經系統,讓終端更加智能,可以預測需求,高通將其命名為Zeroth。
2015年,高通表示Zeroth的“腦啟發計算”研究項目在2014年取得了顯著進步,針對為仿生脈衝神經網絡研發的構架和工具,高通已經開始收集一些指定公司的反饋。高通同時表示Zeroth團隊與Planet GmBH合作,展示了在驍龍和Zeroth平台上運行深度卷積遞歸神經網絡的力量。移動終端完全基於光學字符識別(OCR)的手寫識別首次得到驗證。
高通還用裝載該芯片的機器小車進行了演示,使小車在受人腦啟發的算法下完成尋路、躲避障礙等任務。
MWC 2015上,高通正式發布驍龍820以及使用這一處理器的軟硬件結合“認知計算平台”Zeroth。高通表示借助這一平台,智能手機將變得更加聰明,可以在用戶發出指令前預測其需求。
2016年,名為高通Snapdragon神經處理引擎的SDK搭載Qualcomm Zeroth機器智能平台,特別進行優化以發揮Snapdragon的異構運算功能。
不過,由於Zeroth在設計之初並不是專為AI手機和移動終端AI芯片的計算方案,在功耗和運算效率上仍然有著自己的瓶頸,因此,針對AI手機和AI終端的AI芯片高通推出了更為契合的AI Engine, Zeroth也沒有更多消息。
中國團隊的類腦芯片
除了芯片巨頭們,國內AI芯片初創公司西井推出了自主研發的擁有100億規模的神經元人腦仿真模擬器(Westwell Brain)和可商用化的5000萬類腦神經元芯片(DeepSouth)兩款產品,其中可商用化的芯片能模擬5000萬級別的“神經元”,總計50多億“神經突觸”,據悉該芯片具備“自我學習、自我實時提高”的能力,還可直接在芯片上完成計算,不需要通過網絡連接後台服務器,可在“無網絡”情況下使用。
還有國內的小型類腦芯片研究團隊AI-CTX,據稱他們設計出的一款類腦芯片模型,不僅每個神經元都具有跟人腦神經元類似的電學特徵與動態參數,具有簡單的運算與存儲功能。還採用一種特殊的佈線方式,使各芯片之間的交流突破物理限制,增加芯片群組的原有網絡,擅長處理如溫度、氣壓、人體信號、loT等包含時間參數的數據。
小結
量子計算和類腦芯片都可能成為改變AI的兩大技術,但即便巨頭們投入大量資源進行研發,這兩項技術仍面臨許多挑戰,規模化應用也沒有明確的時間表。這兩項技術也被不斷質疑,IBM推出首款量子計算機之後面臨質疑,對於谷歌將在2018年實現量子霸權的樂觀態度,競爭對手阿里巴巴也提出質疑。
各大公司的研究成果表明,像IBM TrueNorth這樣的類腦芯片運行的效率還不及在傳統架構上運用神經網絡的芯片。英特爾實驗室的高級首席工程師和首席科學家Narayan Srinivasa 也承認英特爾的Loihi芯片在使用一些深度學習模型時表現不好。
不過,Heriot-Watt大學教授Michael Hartmann在最新的論文中寫道:“我和我的同事希望建立第一台專用的神經網絡計算機,使用最新的’量子’技術而不是AI軟件。通過將神經網絡和量子計算兩個計算分支結合起來,希望能夠產生突破,讓AI以前所未有的速度運行,在很短的時間內自動做出非常複雜的決策。”當然,Michael Hartmann也表示這需要十年或更長的時間。