東京大學與索尼共同研發出一種傳感器:讓不能發聲的人“說話”
不出聲,僅僅通過喉嚨和下顎的皮膚震動就能知道你想說什麼。這可不是讀唇術,更不是在拍特工電影。據外媒報導,近日,東京大學和索尼計算機科學研究所共同研發出的AI系統“Derma”,通過將傳感器貼合在喉嚨周圍的皮膚上,就能成功實現從口形(無聲說話)到語音的轉化。
據了解,該設備的研究靈感來源於視聽障礙者的觸診唇讀法,研究者們利用機器學習把整個過程自動化,完成了深層學習的無聲語音交互。
該設備只要在下顎皮膚的兩個位置安裝加速度計和角速度傳感器,輔之機器學習,就能通過隨著說話發生的下顎運動和舌肌運動引起的從下顎到喉嚨的皮膚顫動,進行無聲的“語音識別”。
目前,研究者從傳感器上獲取到了12維皮膚運動信息,能夠分析識別35種發聲命令短語,準確率達到了94%以上。
該設備體積小、重量輕、耗電量低,不易受到照明條件等周圍環境因素的影響。在生活中,該設備也不會影響到使用者的正常生活,吃飯和日常的交流可以照常進行,非常實用。
未來,相信這個設備能夠造福大批殘障人士。