巨大隱患:亞馬遜新語音技術或被不法分子偽造聲音
當地時間週三,亞馬遜AI語音數字助理Alexa可模仿任何聲音的人性化演示文稿在網絡上引起轟動,人們對於是否可能出現偽造聲音的情況表示擔憂,例如使用合法錄音來模仿人們說他們實際上沒有說過的話,來實施綁架詐騙或在公司重大決策中偽造音頻。
當地週三,亞馬遜高級副總裁羅希特·普拉薩德(Rohit Prasad)透露其公司正在開發一種系統,可使AI語音數字助理Alexa在聽不到一分鐘音頻後模仿任何聲音。
該技術研發的消息公佈時,人們只是簡單地想到其帶來的好處,Alexa的首席科學家Rohit Prasad也在周三的公司演示中充分展示了數字助理的人性化,演示了Alexa冒充一位祖母閱讀《綠野仙踪》摘錄的畫面。他表示,同理心和情感等人類特徵是與人建立信任的關鍵,“在疫情持續的這段時間裡,當我們失去了我們所愛的人時,這些屬性變得更加重要”,“雖然人工智能無法消除那種失落的痛苦,但絕對可以讓他們的記憶永存。”該演示給人以將該技術作為一種數字化死者復活工具的印象。
但普拉薩德在隨後拉斯維加斯舉行的亞馬遜技術會議中表示,該服務的主要目的不是模擬死者的聲音。
隨著該演示在網絡上發酵討論,引發了巨大轟動,與此同時出現了一些表示擔憂的聲音——是否會使用合法的錄音來模仿人們說他們實際上沒有發聲的話。布法羅大學計算機科學與工程教授Siwei Lyu的研究涉及深度偽造和數字媒體取證,他表示他對這一發展感到擔憂,“亞馬遜開發的語音轉換技術肯定有好處,但我們應該意識到潛在的誤用,例如綁匪可以在電話中偽裝成家人或朋友來引誘不知情的受害者,或者高層管理人員在對公司財務狀況發表言論時偽造錄音,可能會使股市出現問題。”
雖然亞馬遜沒有透露Alexa的新功能何時推出,但類似的技術可能會讓這種惡作劇變得容易得多。普拉薩德說,亞馬遜已經學會根據不到一分鐘人的講話來模擬聲音,而以前需要在工作室裡才能完成這些工作。