基於AI的語音分析技術可以為預防自殺熱線的工作人員提供情緒指標
一項新的研究表明,人工智慧模型可以準確追蹤危機熱線來電者聲音中的恐懼和擔憂等情緒。該模型的開發者希望它能為電話接線員預防自殺提供即時幫助。言語可以傳遞有關一個人精神和情緒狀態的有用訊息,提供有關他們是否悲傷、憤怒或恐懼的線索。對自殺性言語的研究可以追溯到30 多年前,這些研究確定了客觀的聲音標記,可用於區分各種精神狀態和精神疾病,包括憂鬱症。
然而,對於人類聽眾來說,從某人的言語中識別自殺風險是一項挑戰,因為撥打這些熱線的人情緒都很不穩定,而且他們的言語特徵也會迅速變化。
也許即時情緒”儀表板”會有所幫助。加拿大蒙特利爾康考迪亞大學(Concordia University)的博士生阿拉-恩菲西(Alaa Nfissi)在語音情緒識別(SER)方面訓練了一個人工智慧模型,以幫助預防自殺。他在今年於加州舉行的電氣和電子工程師學會語義計算國際會議上發表了一篇論文,並獲得了最佳學生論文獎。
“傳統上,SER 是由訓練有素的心理學家手動完成的,他們會對語音信號進行註釋,這需要大量的時間和專業知識,”Nfissi 說。 “我們的深度學習模型可以自動提取與情緒辨識相關的語音特徵。”
為了訓練該模型,恩菲西使用了一個資料庫,其中包含了撥打自殺熱線的真實電話錄音以及演員表達特定情緒的錄音。這些錄音被分成若干段,並標註了特定的心理狀態:憤怒、悲傷、中立、恐懼/擔心/憂慮。由於憤怒和恐懼/擔心/憂慮等情緒的代表性不足,因此將演員的錄音與原始的真實錄音合併。
Nfissi 的模型可以準確地辨識四種情緒。在合併的資料集中,此模型正確辨識恐懼/擔憂/憂慮的比例為82%,悲傷的比例為77%,憤怒的比例為72%,中性的比例為78%。此模型尤其擅長辨識真實通話中的片段,悲傷的辨識成功率為78%,憤怒的辨識成功率為100%。
Nfissi 希望看到他的模型被用於開發即時儀表板,幫助危機熱線接線員為來電者選擇適當的干預策略。
「這些人中有很多都在受苦受難,有時輔導員的簡單幹預就能幫上大忙,」恩菲西說。 “這種(人工智慧模型)將有望確保幹預措施能夠幫助他們,並最終防止自殺事件的發生”。
最終,這類感同身受的人工智慧很可能會接管整個自殺熱線。休謨(Hume)被譽為首個語音對語音人工智慧,可以解讀情緒並產生情感反應。你可以造訪Hume網站對其進行測試,人工智慧會告訴你它能從你的聲音中察覺到哪些情緒,並嘗試相應地調整回應的語氣。
即使沒有這種情感回應技術,對話式人工智慧也已開始在呼叫中心產業的其他地方佔有一席之地;《金融時報》最近刊登了一篇文章,印度IT 公司塔塔諮詢服務公司的執行長兼董事總經理K. Krithivasan 在文章中說,人工智慧最終可能會消除菲律賓和印度等國對僱用大量員工的呼叫中心的需求。
因此,失業顯然是一個令人擔憂的問題,但響應情感的人工智慧會引發更多問題。例如,當向OpenAI 的GPT-4 提供一個人的性別、年齡、種族、教育程度和政治傾向,並要求它利用這些資訊提出一個針對這個人的論點時,它的說服力比人類高出了驚人的81.7%。
人工智慧已經證明,它能夠透過眼球追蹤技術收集大量信息,如種族、體重、性格特徵、吸毒習慣、恐懼和性偏好等。追蹤眼睛需要一些特殊的設備,但如果你的聲音能透露出這麼多關於你的情緒,那麼你口袋裡的設備就可能在傾聽你的聲音。
想像一下,在這樣一個世界裡,配備人工智慧的智慧型手機透過聲音和表情追蹤我們的情緒,然後利用你當前的狀態以及它們對你的其他了解,向你推薦與你的情緒相匹配的物品、美食、電影或歌曲。或操縱你購買人壽保險、新車、裙子或出國旅行。
當然,響應情感的人工智慧可用於醫療保健領域,與病人,尤其是那些沒有親人或患有癡呆症的病人進行互動。我們可能很快就會看到這種東西。 2024 年3 月,科技巨頭英偉達(NVIDIA)宣布與希波克拉底人工智慧公司(Hippocratic AI)合作,生產人工智慧驅動的”醫療保健代理”,其性能優於人類護士,而且成本更低。與快速發展的人工智慧相關的大多數事情一樣,時間會告訴我們最終的結果。
Nfissi 的論文在2024 年電氣和電子工程師學會第18 屆語義計算國際會議(ICSC)上發表。