谷歌藉機器學習技術增強了現實生活中的文本圖像翻譯體驗
Google 正在通過機器學習(ML)驅動的附加功能,對其翻譯服務帶來新一輪升級。這使得用戶能夠更輕鬆地翻譯現實世界中出現的文本,比如店面招牌、菜單、文檔、名片等項目。更棒的是,新功能不會簡單粗暴地將譯文覆蓋到原始文本的上方,而是利用AI 生成的背景來重建像素,以便帶來更自然的使用體驗。
谷歌搜索副總裁兼總經理Cathy Edwards 指出:
很多情況下, 單詞的上下文組合—— 比如背景圖像—— 真正為用戶看到的內容賦予了更大的意義。
此時你肯定不希望圖像中可能出現的重要背景,被翻譯後的文本給遮蓋住。
為了讓進展更加順利,谷歌還使用了被稱作“生成對抗網絡”(又稱GAN 模型)的機器學習技術。
在該技術加持下的“魔術橡皮擦”功能,可從Pixel 智能機拍攝的照片中智能擦除不需要的對象。
但現在,Google 也將它運用到了翻譯功能上。通過將譯文融合到復雜的背景圖像中,可為用戶帶來更加自然且無縫的使用體驗。
在軟件呈現的畫面中,你能夠像原文那樣查看譯文,而不是在當前圖像上再添加一層遮擋。說到這,一些人可能已經聯想到了該公司有意打造的新款AR 眼鏡。
Google 稱,每月都有超10 億人次使用該公司的翻譯服務,涉及超過100 種語言的文本和圖像。
今年開始,Google 還開始在公共場所,與少數員工和值得信賴的測試者們,一起評估他們的AR 原型設備。
遺憾的是,該公司首次進軍消費級智能眼鏡領域的Google Glass 產品,最終只是曇花一現。
最後,Google 沒有分享其翻譯功能的長期規劃,僅表示相關功能會在今年晚些時候推出。