EmoNet:能將圖片跟11種情緒配對起來
據外媒報導,人工智能(AI)也許有一天會比我們人類自己更好地溝通情感。由科羅拉多大學和杜克大學研究人員開發的神經網絡模型EmoNet能夠準確地將圖像跟11種不同的情緒類別配對起來。神經網絡是一種計算機模型,其通過一系列的過濾器來學習將輸入信號映射到感興趣的輸出。
資料圖
EmoNet則是通過一個由2185個視頻組成的數據庫開發而成,這些視頻類似於27種不同的情緒類別,從焦慮、興趣到悲傷、驚訝。雖然該模型能夠在高置信區間區分跟“渴望(craving)”、“性慾(sexual desire)”和“恐懼(horror)”相關的圖像,但它在識別“困惑(confusion)”、“敬畏(awe )”和“驚訝(surprise)”等被認為是更抽象的情感方面就沒有那麼強的能力了。該神經網絡利用顏色、空間功率譜及圖像中物體和人臉的存在對它們進行分類。
現在,科學家們可以利用AI來更好地理解參與者的感受,而不再只是依賴於主觀反應而是專注於視覺皮質內的模式–不同的模式會“解碼”出不同的情感體驗。
研究人員之一Tor Wagner表示:“在衡量情緒方面,我們通常仍局限於問人們感覺如何。我們的成果可以幫助我們直接測量與情感相關的大腦處理。”
除了測量情緒,研究團隊還稱,AI可以幫助消除心理健康方面的標籤。“從’焦慮(anxiety)’和’抑鬱(depression)’等主觀標籤轉向大腦處理可能會為治療、處理和乾預帶來新的目標,”Kragel說道。