科學家成功將大腦思想“翻譯”成語音有望恢復ALS患者的交流能力
來自哥倫比亞大學的科學團隊近日通過整合語音合成器和人工智能(AI),成功將人腦思想轉換為語音。該技術能夠高效連接並“監聽”大腦,檢測活動的模式並“翻譯”成為文本。儘管目前實驗能力相對比較基礎,但正如團隊在科學報告中所指出的,它擁有巨大的發掘潛力。
它不僅會顛覆人類和計算機的通信方式,而且在未來有望為語言障礙的人群提供解決方案。例如患有中風,或者像霍金那樣患有肌萎縮側索硬化症(ALS)的人都可以更方便的交流。
此前嘗試“讀取”電腦活動主要依賴於頻譜圖分析的計算機模型,但是這條路並不成功。於是科研團隊使用了部署在蘋果Siri和亞馬遜Alexa的AI合成器技術Vocoder。Vocoder是計算機合成語音的一種算法,因此首先需要使用人類的聲音進行訓練。該項目由哥倫比亞大學Mortimer B. Zuckerman思維腦行為研究所的首席研究員Nima Mesgarani領導,5名癲癇患者在項目的幫助下通過腦部手術接受了訓練,當癲癇患者被要求聽取各種不同人的講話時,研究人員監測他們的大腦活動。
Mesgarani教授表示:“聲音是人類同他們的朋友、家人和周圍世界聯繫的的重要渠道,而由於受傷或者疾病而失去聲音會產生非常嚴重的破壞。通過今天的研究,我們有望恢復這項能力。我們已經證明,通過正確的技術,這些人的想法可以被任何聽眾解讀和理解。在這種情況下,如果佩戴者認為’我需要一杯水’,我們的系統可以獲取該思想產生的大腦信號,並將其轉化為合成的口頭語言,這會讓任何失去講話能力的人,無論是受傷還是疾病,都有可能再次與周圍世界接觸。”