蘋果正改進Siri等語音助手對非典型語言模式的識別
蘋果正在努力讓Siri等語音技術更容易被語言模式不典型的用戶所接受。根據《華爾街日報》的報導,該公司正在研究如何自動檢測某人說話是否有口吃。為此,該公司已經從播客中積累了近2.8萬個人們說話時有口吃的片段。
這一數據發表在本週的一份蘋果研究報告中(PDF鏈接:https://arxiv.org/pdf/2102.12394.pdf)。
雖然蘋果發言人拒絕評論它將如何使用這些數據的發現,但至少該公司計劃至少利用其中的一部分來改進語音識別系統。在此期間,蘋果在2015年推出的Hold to Talk功能允許用戶控制他們希望Siri傾聽多長時間。這有助於防止助手在命令完全說出之前打斷用戶或超時。
雖然文章沒有提到,但Siri也可以在macOS和iOS上使用Type to Siri功能來激活和控制。
針對非典型語音模式的訓練只是Siri改進的一個研究領域。蘋果還在開發系統,可以通過鎖定用戶獨特的語音模式來幫助保護設備的安全。《華爾街日報》還報導了亞馬遜和谷歌等其他科技公司如何訓練他們的數字助理,以了解更多可能在語音命令方面有問題的用戶。
亞馬遜在去年12月推出了一個新的基金,允許擁有非典型語音模式的用戶訓練算法,以識別他們獨特的聲音。谷歌也在收集非典型語音數據,用於谷歌助手。