Alexa技能更新:改進交互體驗可理解上下文語境
在今日發布的一篇開發者博客文章中,Alexa AI應用科學主管Ruhi Sarikaya詳細介紹了機器學習技術的改進,稱Alexa已能夠基於上下文線索、更好地了解用戶的語義。據其所述,這些改進旨在減少用戶在交互式的摩擦,讓Alexa在會話表現上更加出色。自今年秋季以來,亞馬遜一直致力於自學習技能,教導Alexa自動從錯誤中恢復。
新系統經歷了一段時間的測試,將於本週在美國推出。
Sarikaya 指出,Alexa 將不需要人工添加任何註釋,能夠參透用戶“隱式或顯式的上下文信號”,來檢測不理想的交互(無法理解的命令)。
上下文信號包括客戶的歷史活動、偏好、使用Alexa 技能的位置(家中/ 辦公場所)和設備類型。
測試期間,Alexa 學會了理解客戶下達的模糊(錯誤)指令“Play《Good for What》”,自動糾正為《Nice for What》並播放(Drake 的音樂作品)。
亞馬遜表示,此舉有助於減少用戶交互時的摩擦,目前新系統正在對每日與音樂相關的請求進行更正。
此外,用戶可以通過更加自然的流程,引導實現未命名的Alexa 技能。
比如’Alexa,給我找輛車’(get me a car),通過上下文語境來分析用戶到底是需要呼叫網約車,還是想買一輛車。
最後還有改進的上下文結轉功能,允許Alexa 對整個會話期間的內容進行追踪和引用。
結合後續模式,Alexa 能夠將背景噪音與用戶的後續請求區分開來,從而與之實現更加自然的對話(無需重複喚起Alexa)。
上述功能已於今日拓展到了美國之外的英國、加拿大、澳大利亞、印度、德國、日本等市場。