背包AI系統可幫助視力障礙人士安全導航
自動駕駛汽車和機器人領域的傳感器和攝像頭套件,已經能夠對周圍環境產生積極的識別檢測。不過近日,佐治亞大學人工智能研究所的Jagadish K. Mahendran和他的研究團隊,還為視力障礙人士設計了一款“導航背包”。其作為一款AI驅動、語音激活的低功耗交互式設備,它能夠幫助用戶應付常見的出行挑戰。
(視頻截圖via Intel)
據悉,這套視覺輔助系統由一件背包(或背心)、以及一副耳機組成。4K攝像頭能夠採集外界顏色,而一對深度傳感器能夠採集3D信息。
在將視覺信息送入背包中的“大腦”之後(筆記本電腦或樹莓派計算機),系統可藉助一個通過USB 連接的GPS 組件、OAK-D 接口、Open CV 軟件、以及神經網絡來解析可視數據。
除了長達8 小時的續航時間,“隱匿性”也是此設備的一個重要因素,從視頻演示畫面來看,它能夠讓穿戴者像常人一樣在大街上走動,而不會像一台機器人那樣惹人注目。
處理完成後,系統可通過藍牙向用戶傳輸導航信息,以警告類型和大小不盡相同的障礙物,並使用簡潔的語言來描述該規避的相對方位(比如上、下、左、右、中心) 。
Visual Assistance System for the Visually Impaired(via)
由視頻可知,這套背包AI 導航系統能夠分辨垃圾桶、有較高落差的階梯等對象、以及一些重要的標識牌(比如停車避讓)。此外在接近道路拐角時,系統也能夠及時發出語音提醒。
此外系統還支持更多的語音命令交互,比如描述10點鐘方向的汽車、12點鐘方向的行人、1點鐘方向的交通燈,或者要求保存當前位置、以及導航至咖啡館等特定地點。
最後,儘管仍處於早期階段,研究團隊還是盡快將之推向開源和非商業化的應用,以推動相關技術的快速發展。