中國科大在機器學習提高超導量子比特讀取效率上取得重要進展
記者3日從中國科學技術大學獲悉,該校郭光燦院士團隊在機器學習提高超導量子比特讀取效率上取得重要進展。 據瞭解,該團隊郭國平教授研究組與本源量子計算公司合作,在本源「誇父」6比特超導量子晶元上研究了串擾對量子比特狀態讀取的影響,並創新性地提出使用淺層神經網路來識別和讀取量子比特的狀態信息,從而大幅度抑制了串擾的影響,進一步提高了多比特讀取保真度。
該成果以研究長文的形式發表在國際應用物理知名期刊《Physical Review Applied》上。
對量子比特狀態的高保真度測量是量子計算中的關鍵一環。 隨著量子晶元的進一步擴展,為了進一步提高讀取保真度,如何解決測量中的串擾問題將成為研究者們面臨的主要挑戰。 在此之前,國際上其他課題組的主要精力集中在如何從硬體層面抑制串擾,例如為每一個量子比特的讀取腔單獨配置一個讀取濾波器,或者增大讀取腔之間的空間和頻域距離。 這些方案雖然在一定程度上抑制了串擾,但是都對量子晶元的擴展和集成產生了不利的影響。
基於這些出發點,郭國平教授研究組與本源量子計算公司合作,通過對量子比特資訊提取過程的抽象和類比,提出一種新的量子比特讀取方案:通過訓練基於數位信號處理流程構建的淺層神經網路,實現對量子比特狀態的精確識別與分類。
研究人員將這一方案應用到本源「誇父」6比特超導量子晶元上,實驗發現,新的讀取方案不僅有效提升了6比特的讀取保真度,而且大幅度抑制了讀取串擾效應。 同時,由於新方案中的數據處理可以進一步簡化為單步矩陣運算,未來可以直接轉移到現場可程式設計邏輯門陣列上,從而實現對量子比特狀態的0延時判斷以及對量子比特的實時反饋控制。 該方案不僅適用於超導量子計算,也同時適用於其他量子計算物理實現方案。