突破性人工智慧利用大腦數據預測小鼠運動準確率高達95%
一種人工智慧影像辨識演算法可以根據大腦功能成像資料預測小鼠是否在移動。神戶大學的研究人員還開發了一種識別輸入資料相關性的方法,為人工智慧黑匣帶來了曙光,有望為腦機介面技術做出貢獻。
一種用於預測行為狀態的新型”端到端”深度學習方法使用了無需預處理或預先指定特徵的全皮層功能成像。該方法由醫科學生梶岡武弘(AJIOKA Takehiro)和神戶大學高見徹(TAKUMI Toru)領導的團隊開發,他們還能確定哪些大腦區域與演算法最相關(如圖)。提取這些資訊的能力為未來開發腦機介面奠定了基礎。資料來源:梶岡武弘
要製作腦機接口,就必須了解大腦訊號和受影響的動作之間的關係。這就是所謂的”神經解碼”,這一領域的大部分研究都是透過植入大腦的電極來測量腦細胞的電活動。另一方面,功能性影像技術,如核磁共振成像或鈣成像,可以監測整個大腦,並透過代理數據使活躍的大腦區域清晰可見。
其中,鈣成像速度更快,空間解析度更高。但在神經解碼工作中,這些資料來源仍未被利用。其中一個特別的障礙是需要對資料進行預處理,例如去除雜訊或確定感興趣的區域,因此很難為多種不同行為的神經解碼設計出通用的程式。
神戶大學醫科學生Ajioka Takehiro 利用神經科學家Takumi Toru 領導的團隊的跨學科專業知識解決了這個問題。 Ajioka 說:”我們在基於VR 的小鼠即時成像和運動追蹤系統以及深度學習技術方面的經驗,讓我們能夠探索’端到端’深度學習方法,這意味著它們不需要預處理或預先指定的特徵,從而可以評估整個皮層的神經解碼資訊。他們將兩種不同的深度學習演算法(一種針對空間模式,一種針對時間模式)結合到小鼠在跑步機上休息或奔跑的全皮層膠片數據中,並訓練他們的人工智慧模型從皮層圖像數據中準確預測小鼠是在移動還是在休息。”
神戶大學的研究人員在《PLoS 計算生物學》雜誌上報告說,他們的模型預測動物真實行為狀態的準確率高達95%,而無需去除噪音或預先定義感興趣的區域。此外,他們的模型僅憑0.17 秒的數據就做出了這些準確的預測,這意味著他們可以達到接近即時的速度。而且,這種方法適用於五個不同的個體,這表明該模型可以過濾掉個體特徵。
然後,神經科學家透過刪除部分資料並觀察模型在該狀態下的表現,確定影像資料中哪些部分對預測起主要作用。預測結果越差,數據就越重要。梶岡武弘釋說:”我們的模型能夠識別行為分類的關鍵皮層區域,這尤其令人興奮,因為它打開了深度學習技術’黑盒’的蓋子。”
神戶大學團隊建立了一種可通用的技術,從整個皮質功能成像資料中識別行為狀態,並開發了一種技術來識別預測是基於資料的哪些部分。這項研究為進一步開發能夠利用非侵入性腦部影像進行近即時行為解碼的腦機介面奠定了基礎。
編譯自: ScitechDaily