ChatGPT高級語音助理正式上線50多種語言、9種聲線可選
在首次向大眾展示的四個月後,OpenAI終於要向其所有付費用戶開放ChatGPT的類人高階人工智慧(AI)語音助理功能-「進階語音模式」(Advanced Voice Mode,以下簡稱AVM)。 OpenAI週二(24日)宣布,所有付費訂閱ChatGPT Plus和Team計畫的用戶,都將可以使用新的AVM功能,不過該模式將在未來幾天逐步推出。它將首先在美國市場上線。
下週,該功能將向OpenAI Edu 和Enterprise 計劃的訂閱者開放。
據悉,AVM提高了部分外語的對話速度、流暢度並改善口音。
此外,AVM還新增了兩大功能:為語音助理儲存“自訂指令”,以及記住用戶希望語音助理表現何種行為的“記憶”的功能(這類似於今年4月OpenAI為ChatGPT文字版本推出的記憶功能)。
也就是說,ChatGPT使用者可以利用自訂指令和「記憶」來確保語音模式是個人化的,AVM會根據他們對所有對話的偏好做出回應。
語音方面,OpenAI推出了五種不同風格的新聲音: Arbor、Maple、Sol、Spruce 和Vale,加上之前舊版的四種聲音Breeze、Juniper、Cove和Ember,可選聲音達到九種,撤走了被指山寨「寡姐」(女星史嘉蕾喬韓森)的聲音Sky。
這意味著,ChatGPT的Plus版個人用戶和小型企業團隊用戶(Teams)可以透過「說話」的方式,而不是輸入提示來使用聊天機器人。當用戶在應用程式上進入語音模式時,他們會透過一個彈出視窗知道他們已經進入了高級語音助理。
最後值得一提的是,AVM可以用超過50種語言說「對不起,我遲到了」。
根據OpenAI在X上發布的一段視頻,用戶要求語音助理表達,由於讓奶奶久等了,向奶奶致歉。 AVM先用英文流暢地總結了一遍,並在使用者表示「奶奶只會說普通話」後,又用標準的中文國語表達了一遍。
不過據悉,這些更新只適用於OpenAI的AI模型GPT-4o,不適用於最近發布的預覽模型o1。
今年5月,OpenAI首次展示了這款語音產品,並展示了它如何快速回應用戶發出的書面和視覺提示。但在6月,以解決潛在安全問題為由,延後發布。到了7月份,此功能也只開放給有限數量的ChatGPT Plus用戶。
不過,新的語音模式缺少5月OpenAI展示過的不少功能,例如電腦視覺功能。此功能可讓GPT僅透過使用智慧型手機的相機就對使用者的舞蹈動作提供語音回饋。