Google Lens將率先整合MUM新AI技術:圖文混合搜索即將落地
今年早些時候召開的 I/O 開發者大會上,Google 引入了名為 Multitask Unified Model(MUM)的新人工智慧里程碑。 這項技術可以同時理解各種格式的資訊,包括文本、圖像和視頻,並得出主題、概念和想法之間的洞察力和聯繫。 今天,Google 宣布計劃在自己的產品中整合 MUM,率先對 Google Lens 視覺搜索進行更新。
Google Lens 是該公司的圖像識別技術,可以讓你使用手機的攝像頭來執行各種任務,如即時翻譯、識別植物和動物、從照片中複製和粘貼、尋找與相機取景器中的物品相似的物品、獲得數學問題的説明等等。
Google 今天表示即將利用 MUM 的能力來升級 Google Lens,使其能夠在視覺搜索中添加文字,以便讓使用者對他們看到的東西提出問題。
在實踐中,這種功能可以這樣運作。 你可以在Google Search中調出一張你喜歡的襯衫的照片,然後點擊 Lens 圖示,要求Google為你找到同樣的圖案但要在一雙襪子上。 通過輸入”socks with this pattern”(有這種圖案的襪子),你可以引導 Google 找到相關的查詢,如果你只使用文本輸入,可能會更難做到。
在另一個例子中,你的自行車的一個部件壞了,你需要在Google上搜索維修技巧。 但是,你不知道這個零件叫什麼。 你可以把Google Lens對準自行車的破損部分,然後輸入「如何修復」,而不是鑽研維修手冊。 這可以讓你直接與視頻中的確切時刻聯繫起來,從而提供説明。
Google 將這些人工智慧驅動的舉措視為通過啟用新的搜索方式使其產品對終端使用者”更有説明”的方法。 通過利用手機攝像頭作為搜索的一部分,Google 的目標是在其許多核心用例開始轉移到其他屬性的市場中保持相關性。
在今天的 Search On 現場活動中,Google 宣佈還將以其他方式在Google搜索和視頻搜索中使用 MUM。 Google Lens 的更新將在未來幾個月內推出,並指出它仍然需要經過”嚴格的測試和評估”,這是其部署的每個新人工智慧模型的一部分。