Google增強”多重搜索”功能加入本地元素並暗示AR眼鏡的未來
今年4月,Google推出了一個新的”多重搜索”功能,提供了一種同時使用文本和圖像進行網絡搜索的方法。今天,在Google的I/O開發者大會上,該公司宣布對該功能進行擴展,稱為”Multisearch Near Me”。這項新功能將於2022年晚些時候推出,將允許Google應用程序用戶將圖片或屏幕截圖與”在我附近”的文字結合起來,以引導到當地零售商或餐館的選項,這些零售商或餐館將有你正在搜索的服裝、家居用品或食品。
Google還預先宣布了一個即將推出的多重搜索功能,似乎是為AR眼鏡設計的,它可以根據用戶目前通過智能手機相機的取景器”看到”的東西,在一個場景中直觀地搜索多個物體。
有了新的”在我附近”多搜索查詢,用戶將能夠找到與你當前的視覺和基於文本的搜索組合有關的本地選項。例如,如果正在進行一個DIY項目,遇到一個需要更換的零件,就可以用手機的攝像頭拍下這個零件的照片來識別它,然後藉助這些信息找到一個有庫存的當地五金店。Google解釋說,這與多重搜索的工作方式並沒有什麼不同–只是增加了本地組件而已。
最初,多重搜索的想法是允許用戶對他們面前的物體提出問題,並通過顏色、品牌或其他視覺屬性來完善這些結果。今天,這項功能在購物搜索中的效果最好,因為它允許用戶以一種標準的基於文本的網絡搜索有時可能難以做到的方式縮小產品搜索範圍。例如,用戶可以拍下一雙運動鞋的照片,然後添加文字要求看到藍色的運動鞋,這樣就可以看到指定顏色的那些鞋。他們也可以選擇訪問運動鞋的網站並立即購買。現在擴展到包括”在我附近”的選項,只是進一步限制了結果,以便將用戶指向有該產品的當地零售商。
在幫助用戶尋找當地餐館方面,該功能的工作原理與此類似。在這種情況下,用戶可以根據他們在美食博客或網絡上其他地方找到的照片進行搜索,以了解這道菜是什麼,以及哪些當地餐館的菜單上可能有這個選項,可以堂食、提貨或送貨。在這裡,Google搜索將圖片與正在尋找附近的餐館的意圖結合起來,並將掃描數百萬張圖片、評論和社區貢獻給Google地圖,以找到當地的餐館。
Google表示,新的”我附近”功能將在全球範圍內提供英語服務,並將隨著時間的推移推廣到更多語言。
多重搜索中更有趣的新增功能是在一個場景中進行搜索的能力。Google表示,在未來,用戶將能夠將他們的相機平移到周圍,以了解該更廣泛場景中的多個對象,這項功能甚至可以用來掃描書店的書架,然後在用戶面前展示哪個可能對他更有用。
“為了使之成為可能,我們不僅匯集了計算機視覺、自然語言理解,而且還將其與網絡和設備上的技術知識結合起來,”Google搜索高級總監尼克-貝爾指出。”他指出:”因此,這種可能性和能力將是巨大而顯著的。
該公司通過發布Google眼鏡提前進入了AR市場,但沒有確認它有任何一種新的AR眼鏡類型的設備正在開發中,但暗示了這種可能性。現在有了人工智能係統,今天可能發生的事情–以及未來幾年可能發生的事情–只是一種解鎖了許多機會。除了語音搜索、桌面和移動搜索之外,該公司認為視覺搜索也將成為未來的一個重要部分。
“現在每個月在Google上用Lens進行的視覺搜索有80億次,這個數字是一年前的三倍,我們肯定從人們那裡看到的是,人們對視覺搜索的胃口和願望是存在的。”他說:”我們現在要做的是深入到使用案例中去,並確定這在哪些方面最有用。我認為,當我們考慮搜索的未來時,視覺搜索肯定是其中的一個關鍵部分。”
據報導,該公司正在進行一個秘密項目,代號為Project Iris,以設計一個新的AR頭顯,預計發布日期為2024年。很容易想像,不僅這種場景掃描能力可以在這樣的設備上運行,而且任何一種圖像加文字(或語音)的搜索功能也可以在AR頭顯上使用。想像一下,例如,再次看到你喜歡的那雙運動鞋,然後讓設備導航到最近的商店,你就可以購買了。
Google搜索高級副總裁Prabhakar Raghavan在GoogleI/O大會上發言說:”展望未來,這項技術可以超越日常需求,幫助解決社會挑戰,比如支持保護主義者識別需要保護的植物物種,或者幫助救災人員在需要的時候快速尋找捐助。”
不幸的是,Google沒有提供一個時間表,說明它預計何時將場景掃描功能投入用戶手中,因為該功能仍在”開發中”。