科幻裡的機器人蜂群被浙大搞出來了可獨立思考自主導航追踪目標
機器人集群自如穿梭密集的竹林,這一幕不是出自電影大片,而是在浙江湖州真實上演。自然形成的複雜環境對機器人來說是未知的,沒有事先測繪。也沒有統一的中央指揮,每一隻機器人都在“獨立思考”,全靠算法臨場反應。
夢晨發自凹非寺
這項來自浙江大學的研究成果登上最新一期Science Robotics封面。
據浙江大學介紹,此前的機器人集群表演大多通過衛星定位和軌跡編碼實現,由地面計算機統一控制。
這種模式下,機器人群體一旦失去指揮就會“群龍無首”,不但無法保持隊形還可能撞上障礙物或相互碰撞。
這次的新成果被Science Robtics評價為第一個能在非結構化環境中分散、自主飛行的集群系統。
可以在避障之後迅速恢復隊形。
也可以相互配合持續追踪特定目標。
那麼浙大團隊是怎麼做的呢?
*(完整演示視頻在文末)*
鳥群模式
論文中介紹,飛行機器人的研究受動物啟發,分為蟲群模式和鳥群模式兩種。
昆蟲會做短程的反應性動作(比如蒼蠅避開蒼蠅拍)。
基於反應的蟲群導航算法對算力和內存的需求更小,機器人可以做得更小。
鳥類有更敏銳的感官和更大的腦容量,可以做長期的軌跡規劃。
基於軌跡規劃的鳥群導航算法有更強的性能和可擴展性,因此浙大團隊選擇了這一種。
在群體軌跡規划算法上,如果只考慮空間因素會影響機器人集群間的配合。比如通過狹窄空間時會擁堵,導致後面的機器人必須繞路。
因此,浙大團隊同時對時間和空間做軌跡規劃,利用稀疏參數優化(sparse parametric optimization)和約束轉錄(constraint transcription)方法提升速度,做到實時計算。
在穿越高密度竹林時,這種算法可以讓多個機器人先後通過狹窄縫隙避免碰撞,無懼傾斜竹子和高低起伏的地形。
除了軌跡規劃外,浙大團隊改進了視覺-慣性里程計(Visual-Inertial Odometry)做群體的定位。
為了避免長距離積累的微小誤差最終造成相互碰撞,開發了分佈式漂移校正算法。
每個機器人都有完整的感知、定位、規劃和控制功能,相互之間用高保真無線通信來共享軌跡。
在10個機器人密集飛行實驗中,研究人員關閉了GPS信號、臨時增加障礙物、以及人類主動干擾都沒出現碰撞。
實驗所用的機器人由浙江大學控制科學與工程學院和湖州實驗室研發。
單個機器人只有手掌大小,比一聽可樂的重量還要輕。
搭載了英偉達Xavier NX模組,擁有6核CPU和384核GPU及8GB內存。
但在實驗中,除了個別例外場景,CPU和GPU的使用率都保持在40%以下,在有限的計算資源實現了複雜行為。
將用於救災、勘探和運輸
論文第一作者為浙江大學控制科學與工程學院博士研究生周鑫,通訊作者為該院高飛博士和許超教授。
團隊成員來自科學與工程學院及湖州研究院。
這次成果解決了在混亂的野外環境中機器人集群自主導航的問題,提高了對各種現實任務的適應性。
地震、洪水和火災中,機器人集群可用於搜索、引導受困者,或運送緊急物資。
在生態研究、地質勘探中,使用機器人集群可以調查狹窄的環境。
而開發出的自主導航算法,也可以用於火星車、月球車,以及多台貨運無人機協作運輸重量超過單台運輸能力的貨物。