Emo機器人在你微笑之前就能感知你的微笑並做出回應
一個名為”Emo”的機器人能夠感知人類即將露出的微笑,並同時用自己的微笑做出回應,這可能是朝著開發具有更強交流技能、更有利於建立人類信任的機器人邁出的一大步。雖然大型語言模型(LLM)(如OpenAI 的ChatGPT)的進步使機器人在語言交流方面有了長足的發展,但它們在非語言交流方面仍面臨挑戰,尤其是讀取面部表情並做出適當反應。
哥倫比亞大學哥倫比亞工程學院創意機器實驗室的研究人員透過教導他們的藍矽擬人機器人頭”Emo”預測人的微笑並做出回應,解決了這個難題。
設計一個能對非語言提示做出反應的機器人涉及兩個挑戰。首先是創造一個表情豐富但功能多樣的臉部,這涉及複雜的硬體和執行機制。其次是教會機器人及時做出何種表情,以便顯得自然與真實。
Emo 可能”只是一個腦袋”,但它由26 個執行器組成,可以做出各種細微的面部表情。兩個瞳孔中的高清攝影機使Emo 能夠進行非語言交流所需的眼神交流。為了訓練Emo 如何做出面部表情,研究人員把它放在攝影機前,讓它做一些隨機動作–相當於我們在照鏡子時練習不同的表情。幾個小時後,Emo就學會了哪些動作指令會產生對應的臉部表情。
隨後,Emo 觀看了人類面部表情的視頻,逐幀進行分析。再經過幾個小時的訓練,Emo 就能透過觀察微小的變化來預測人的臉部表情了。 Emo 在人類微笑發生前約840 毫秒預測了人類的微笑,並同時做出了自己的回應(儘管這樣做看起來相當嚇人)。
人類與機器人的臉部共同表情
研究的第一作者胡宇航說:「我認為準確預測人類面部表情是HRI(人機互動)領域的一場革命。傳統上,機器人在設計時並沒有考慮到人類在互動過程中的表情。現在,機器人可以整合人類的面部表情作為反饋,當機器人與人類實時做出共同表情時,不僅能提高交互質量,還有助於建立人類與機器人之間的信任,未來,在與機器人互動時,機器人會像真人一樣觀察並解讀你的臉部表情。”
目前,研究人員正在努力將LLM 整合到Emo 中,使其能夠進行語言交流,他們非常清楚開發這種先進機器人所涉及的倫理問題。
“儘管這種能力預示著從家庭助手到教育輔助工具等大量積極的應用,但開發者和用戶仍有責任謹慎行事,並考慮道德因素,”該研究的通訊作者、創意機器實驗室主任霍德-利普森(Hod Lipson)說。
“但這也非常令人興奮–透過開發能夠準確解讀和模仿人類表情的機器人,我們正一步步接近這樣一個未來:機器人可以無縫融入我們的日常生活,為我們提供陪伴、幫助,甚至是共鳴。想像一下,在這個世界上,與機器人互動就像與朋友交談一樣自然、舒適。”
這項研究發表在《科學機器人學》(Science Robotics)。