情緒再也藏不住?AI從走路姿勢就能分辨
每個人的走路方式都各有不同,而且它還會洩露有關你的更多秘密,比如你每時每刻的情緒。舉例來說,當你感到壓抑或沮喪時,你更有可能耷拉著肩膀,而不是昂首闊步地走路。
美國查佩爾希爾大學和馬里蘭大學的研究人員利用這種身體語言,最近研究了一種機器學習方法,這種方法可以從某人的步態中識別出他當前的情緒,包括情緒向性(消極或積極)和喚起水平(平靜或充滿活力)。研究人員稱,這種方法在初步實驗中的準確率達到80.07%。
研究人員寫道:“情緒在我們的生活中扮演著重要的角色,定義著我們的經歷,塑造著我們看待世界和與他人互動的方式。由於感知情感在日常生活中的重要性,自動情感識別在許多領域都是一個關鍵問題,比如游戲和娛樂、安全和執法、購物以及人機交互等。”
研究人員選擇了四種情緒——快樂、悲傷、憤怒和中性,以此作為測試步態分析算法的例證。然後,他們從多個步行視頻語料庫中提取步態來識別情感特徵,並使用三維姿態估計技術提取姿態。
最後,他們利用長短時記憶(LSTM)模型——能夠學習長期依賴關係,從姿態序列中獲得特徵,並將其與隨機森林分類器(該分類器輸出多個獨立決策樹的平均預測)相結合,將其所分析步態歸入上述四種情緒類別中。
這個AI系統根據人們走路的方式對他們的情緒進行分類
這些特徵包括肩膀姿勢、連續步數之間的距離以及手和脖子之間的抖動頻率。頭部傾斜角度被用來區分快樂和悲傷的情緒,而更緊湊的姿勢和“身體擴張”分別代表著消極和積極的情緒。
至於喚起水平,科學家們注意到它往往與增加的動作相對應,該模型考慮了速度、加速度的大小,以及手、腳和頭部關節的“運動抖動”。
AI系統處理了來自“情感漫步”(Emotion Walk,簡稱EWalk)的樣本。EWalk是包含1384個步態的新數據集,這些步態是從24名受試者在大學校園(包括室內和室外)散步的視頻中提取的。大約有700名來自亞馬遜土耳其機械公司的參與者給情緒貼上標籤,研究人員用這些標籤來確定情緒的向性和興奮程度。
在測試中,研究小組報告說,他們的情感檢測方法準確性比最先進的算法提高了13.85%,比不考慮情感特徵的“普通”LSTM提高了24.60%。這並不是說它是完美的,畢竟其精度度在很大程度上取決於三維人體姿態估計和步態提取的精度。但儘管有這些限制,研究小組相信他們的方法將為涉及額外活動和其他情感識別算法的研究提供堅實的基礎。
研究人員表示:“我們的方法也是第一個利用最先進3D人體姿態估計技術,為行走視頻中的情緒識別提供實時通道的方法。作為未來工作的一部分,我們希望收集更多的數據集,並改進當前系統中存在的限制。”