研究人員表示OpenAI的Whisper轉錄工具有幻聽問題
根據美聯社報道,軟體工程師、開發人員和學術研究人員對OpenAI 的Whisper 轉錄工具有嚴重擔憂。雖然圍繞著人工智慧產生幻覺的傾向(基本上就是胡編亂造)的討論不絕於耳,但這一問題出現在轉錄服務中還是有點令人驚訝,因為在轉錄中,用戶會期望轉錄內容與被轉錄的音頻密切相關。
相反,研究人員告訴美聯社,Whisper 在轉錄中引入了從種族評論到想像中的醫療方法等各種內容。 隨著Whisper 在醫院和其他醫療環境中的應用,這可能會帶來特別嚴重的後果。
密西根大學的一位研究人員在研究公共會議時發現,每10 個音訊轉錄中就有8 個出現幻聽。 一位機器學習工程師研究了100 多個小時的Whisper 錄音轉錄,發現其中超過一半出現了幻聽。 一位開發人員報告說,他在使用Whisper 創建的26,000 份轉錄中幾乎都發現了這種現象。
OpenAI 發言人表示,該公司”正在不斷努力提高模型的準確性,包括減少幻覺”,並指出其使用政策禁止在”某些高風險決策環境中”使用Whisper。 “我們感謝研究人員分享他們的發現。”