研究人員與英特爾合作製造超敏感人造皮膚
機器人領域是近年來取得了一些重大進展的領域,但我們與機器人同行之間的一個主要區別是我們的感覺能力。僅僅擁有執行任務的靈活性並不總是足夠的,因為我們的觸覺給大腦提供了很多背景信息。今天,新加坡國立大學(NUS)的研究人員展示了新的工具,這些工具將允許機器人感知觸摸,有可能為它們打開窗口,以執行更多的任務。
今天的宣布已經醞釀了很久。去年,由助理教授Benjamin Tee領導的新加坡國立大學材料科學與工程團隊詳細介紹了一種人造皮膚傳感器的開發,旨在讓機器人和假肢有觸摸感。正如Tee在今天的公告中所解釋的那樣,開發該人造皮膚只是讓團隊在實現其目標的道路上走了一部分,即真正使用該皮膚來增強機器人的能力。
製造一個超快的人造皮膚傳感器解決了讓機器人更聰明的一半難題,他們還需要一個能夠最終實現感知和學習的人工大腦,作為拼圖中的另一個關鍵部分。在這種情況下,這個大腦就是英特爾的Loihi神經形態計算芯片。Loihi使用一個尖峰神經網絡來處理人造皮膚收集的觸摸數據和基於事件的攝像頭收集的視覺數據。在一項測試中,新加坡國立大學的研究人員讓一隻機械手”閱讀”盲文字母,然後通過雲端將觸覺信息傳遞給Loihi。Loihi能夠以超過92%的準確率對這些字母進行分類,而且它做到這一點的同時,使用的電量比標準的馮-諾依曼處理器少20倍。
在另一項測試中,研究人員將觸摸系統與基於事件的攝像頭配對,讓機器人對各種不透明的容器進行分類,這些容器盛放著不同數量的液體。利用觸覺和視覺數據,Loihi能夠識別出每個容器的旋轉滑移,NUS研究人員表示,這對於保持穩定的握持力非常重要。最後,研究人員發現,將基於事件的視覺與來自人造皮膚的觸覺數據配對,然後用Loihi處理這些信息,與僅有視覺的系統相比,能夠使物體分類的準確率提高10%。
在日常生活中,既能感覺到又能看到的機器人可能會有很多應用,無論是那些充當老人或病人的照顧者,還是在工廠裡與新產品合作。賦予機器人感覺的能力,也可以打開自動化手術的大門,這將是機器人技術的一大進步。