MIT的低成本傳感器手套有望使機械手通過觸摸識別物體
麻省理工學院計算機科學與人工智能實驗室(MIT-CSAIL)的研究人員近日開發了一種低成本的傳感器手套,旨在使人工智能能夠“弄清楚”人類如何通過觸摸識別物體。它被稱為可伸縮的TActile手套(STAG),使用550個微小的壓力傳感器來生成可用於創建改進的機械手的模式。
人類非常善於通過觸摸來弄清楚物體是什麼(例如在黑暗中摸索眼鏡或手機)。工程師希望機器人也能效仿這種能力。這樣做的一種方法是收集盡可能多的關於人類實際上如何通過觸摸識別的信息。原因在於,如果有足夠大的數據庫,那麼機器學習可以用來進行分析,不僅可以推斷人手如何識別某物,還可以估計其重量-機器人和假肢難以做到這點。
麻省理工學院正在通過配備550個壓力傳感器的低成本針織手套收集這些數據。手套連接到計算機,計算機收集數據,壓力測量結果被轉換為視頻“觸覺地圖”並被輸入卷積神經網絡(CNN)。該網絡能對圖像進行分類,找出特定的壓力模式並將其與特定的物體相匹配。
該團隊從26個常見物體(如飲料罐、剪刀、網球、勺子、鋼筆和馬克杯)中收集了135,000個視頻幀。然後,神經網絡將半隨機幀與特定的夾點相匹配,直到建立了一個物體的完整圖片- 這與人們通過在手中滾動物體來識別物體的方式非常相似。通過使用半隨機圖像,可以給網絡提供相關的圖像集群,因此不會在無關數據上浪費時間。
“我們希望最大化框架之間的差異,為我們的網絡提供最好的輸入,”CSAIL 博士後Petr Kellnhofer說。“單個群集中的所有幀都應該具有類似的簽名,這些簽名代表了抓取對象的類似方式。從多個群集中採樣模擬人類交互式嘗試探索物體時找到不同的抓取方式。”
該系統目前識別物體的精確度為76%,其還可以幫助研究人員了解手掌握和操縱它們的方式。為了估計重量,研究人員還編制了一個11,600幀的單獨數據庫,顯示在跌落之前用手指和拇指拾取物體。通過在物體被保持時測量手周圍的壓力,然後在跌落後比較它,可以測量重量。
該系統的另一個優點是成本和靈敏度。類似的傳感器手套價值數千美元,卻只有50個傳感器。而麻省理工學院的手套則採用現成的材料,成本僅為10美元。
該研究發表在《自然》雜誌上。