AI下一個重大飛躍是理解情感第一個具有情緒智商的對話型AI來了
一家來自紐約的新創公司Hume AI發布了一款標榜為「第一個具有情緒智商的對話式人工智慧」的同理語音介面(EVI),並表示其能夠從用戶那裡檢測到53種不同的情緒。 AI的下一個重大突破是理解情感嗎? Hume AI表示是的。 3月27日,一家名為Hume AI的新創公司宣布,他們已經在一輪B輪融資中籌集了5,000萬美元。
這家新創公司由前Google DeepMind研究員Alan Cowen共同創立並擔任CEO。
Hume AI與其他人工智慧模型供應商和新創公司的區別在於,它專注於創建一款能夠理解人類情感、適當做出反應並向用戶傳達情感的人工智慧助理。
這款聊天機器人不僅基於文本,還使用語音對話作為其接口,透過聆聽人類用戶的語調、音高、停頓等聲音特徵來運作。
Hume AI同時發布了其名為「共感語音介面」(Empathic Voice Interface)的演示,只需要使用帶有麥克風的設備,就可以與之互動。
為什麼AI需要理解情感
Hume AI的理論是,透過開發能夠更細緻地理解和表達人類情感的AI模型,它可以更好地為服務使用者。
Hume AI不僅想要了解使用者「快樂」、「悲傷」、「憤怒」、「害怕」等等通用的人類情緒,而是更微妙、通常是多維度的情緒。
例如“欽佩”,“崇拜”,“入迷”,“諷刺”,“羞恥”等等,Hume AI在其網站上總共列出了53種不同的情緒。
官網網址:https://dev.hume.ai/docs/expression-measurement-api/overview(上下滑動查看全部)
對此,Hume AI表示:
情感智能包括從行為推斷意圖和偏好的能力。這正是AI介面試圖實現的核心目標:推斷使用者想要什麼並實現它。因此,在某種意義上,情感智能是AI介面的最重要的要求。
透過語音AI,你可以獲得更多關於使用者意圖和偏好的線索。
這使得我們的AI在預測人類偏好和結果、知道何時說話、知道該說什麼以及如何以正確的語氣說話方面變得更加出色。
Hume AI展示之後,反應十分狂熱。
雲端和Web應用開發軟體公司Vercel的執行長Guillermo Rauch就發文表示:“這是迄今為止我見過的最好的人工智慧演示之一。”
如何從語音變化中偵測情緒
在其網站上,Hume指出:“這些模型是基於大規模、實驗控制的情感表達數據的人類強度評分上進行訓練的。”
這些數據來自Cowen及其同事發表的兩篇科學研究論文:「Deep learning reveals what vocal bursts express in different cultures」和「Deep learning reveals what facial expressions mean to people in different cultures」。
第一項研究包括來自美國、中國、印度、南非和委內瑞拉的16,000名參與者,有趣的是,資料集裡面還有一部分是用來記錄「語音爆發」或非詞彙聲音,如笑聲和「嗯嗯」等。
第二項研究包括來自上述五個國家以及埃塞俄比亞的5,833名參與者,他們在計算機上進行了一項調查,在調查中他們分析了來自4,659個面部表情數據庫的高達30個不同的“種子圖像” 。
參與者被要求模仿他們在電腦上看到的面部表情,並從一個包含48種情緒的清單中,按照1-100的強度進行評估。
在互動中,Hume AI的EVI說道,Hume的團隊「收集了有史以來最大、最多樣化的人類情感表達庫。我們談論的是來自世界各地的一百多萬參與者,參與了各種各樣的現實生活互動。”
Hume AI利用這兩項研究的照片和參與者的音訊資料訓練了自己的深度神經網路。
這些數據也用於創建了一個「語音韻律模型」(speech prosody model),用於測量語音的調子、節奏和音色,並整合到EVI中。
情感AI的應用與約束
Hume AI提供其EVI的API,讓使用者可以根據其獨特的資料集訓練自己的Hume AI模型。
同時也提供「表達測量API」(Expression Measurement API), 企業客戶可以使用該API建立應用程式。
在表達測量API中可以存取的其他屬性包括理解面部表情、語音爆發和情緒語言——後者測量「轉錄文字的情緒語調,包括53個維度」。
EVI可以作為任何應用的介面。開發人員可以使用Hume AI的API建立個人AI助理、代理和穿戴式裝置等等,產品可涵蓋從AI助理到健康管理、從教學輔導到客戶服務等各個領域。
但同時,人們可能會對Hume的EVI產生依賴或以一種不健康的方式沉迷於它的潛力,該技術也可能會被用於一些不好的用途,例如操縱、欺詐等等。
在直接被問及此可能性時,考恩提供了以下聲明:
當人工智慧利用我們的情緒行為來達到某些目標(例如促進購買、提高參與度或培養習慣)時,它可能會學會操縱和利用我們的情感。
因此,開發人員應該將了解使用者情感行為視為人工智慧本身的目標,而不是將這些行為僅僅當作達到第三方目標的手段。
演算法用於檢測情緒線索應該服務於使用者健康和福祉的目標,包括對異常情況做出適當反應、保護使用者免受濫用,並促進使用者的情緒認知和自主性。
該網站還包括一系列“不支援的用例”,例如操縱、欺騙、“優化減少幸福感”(如“心理戰爭或折磨”)以及“無限制的同理心人工智慧”。
但這不過泛泛而談,當AI真的有了情感之後,如何用倫理、用法律去約束,人類還有很長的路要去探索。