家務機器人更進一步:Google讓其更理解你的自然語言命令
Google 母公司Alphabet 正嘗試將機器人和AI 語言理解兩個方面的研究整合起來,從而讓“Helper Robot”更能理解人類的自然語言命令。早在2019 年,Alphabet 就開始研發機器人,讓其執行諸如拿起飲料和清潔檯面這樣簡單的任務。
不過,Everyday Robots 項目仍處於起步階段,機器人的反應緩慢且沒有準確執行人類的命令。但機器人現在通過Google 的大型語言模型(LLM) PaLM 提高了語言理解能力。目前,大部分機器人只能對一些簡短的話語做出響應,例如“給我一杯水”。不過像GPT-3 和Google 的MuM 這樣的LLM 模型能夠更好解析命令背後的意圖。
Google 的示例中,你可以向一台Everyday Robots 原型提問:“我的飲料灑了,你能幫忙嗎?”機器人通過可能動作的內部列表過濾此指令,並將其解釋為“從廚房拿來抹布”。
Google 將由此產生的系統命名為PaLM-SayCan,這個名稱捕捉了該模型如何將LLM 的語言理解技能(“Say”)與其機器人的“能力基礎”(即“Can”——通過可能的動作過濾指令)結合起來。
Google 表示,機器人在整合PaLM-SayCan 後,在對101 條用戶指令的測試中正確響應率為84%,正確執行率為74%。雖然這個數字看起來很高,但是目前我們並不知道這101 條指令的列表,因此不清楚這些指令的限製程度。