Google現在讓你可以搜索難以描述的東西- 從圖片搭配文字開始
你喜歡那條裙子的樣子,但你更希望它是綠色的。你想要那雙鞋,但更喜歡平底鞋而不是高跟鞋。如果你能擁有與你最喜歡的筆記本相同圖案的窗簾呢?我們不知道該如何在Google上搜索這些東西,但Google搜索產品經理Belinda Zeng本週早些時候向我展示了每一個真實世界的例子,答案總是一樣的:拍一張照片,然後在Google Lens上輸入一個詞。
今天,Google推出了僅適用於美國的Google Lens多搜索功能的測試版,去年9月,Google在其Search On活動中預告了這一功能,雖然到目前為止我只看到了一個粗略的演示,但你應該不用等太久就能自己嘗試:它將在iOS和Android上的Google應用中推出。
雖然它主要是針對購物開始的–這是最常見的要求之一–但Google的Zeng和該公司的搜索總監Lou Wang認為它可以做得更多。”你可以想像你面前的東西壞了,沒有詞來描述它,但你想修理它……你可以拍個照然後直接輸入’如何修理’,”Wang說。
事實上,它可能已經對一些壞掉的自行車起作用了,Zeng補充說。她說,她還通過截圖Instagram上漂亮的指甲圖片,然後輸入關鍵詞”教程“,以獲得社交媒體上沒有自動出現的那種視頻結果,從而了解了指甲的造型。你也可以拍一張照片,比如說,一株迷迭香,然後得到關於如何照顧它的說明。
Wang說:”我們希望幫助人們自然地理解問題,多重搜索將擴展到更多的視頻、一般的圖像,甚至是你在傳統的Google文本搜索中可能找到的各種答案。”
聽起來,其目的也是為了讓每個人都處於平等地位,它不會與特定的商店合作,甚至不會將視頻結果限制在Google擁有的YouTube上,而是會浮現出”我們能夠從開放網絡上索引的任何平台”的結果。但它也不會對所有東西都起作用,就像你的語音助手不會對所有東西都起作用一樣,因為有無限可能的請求,而Google還在摸索出它們的意圖。
Google希望人工智能模型能夠推動一個新的搜索時代,而上下文–而不僅僅是文本–是否能夠帶著它進入這個時代,這是一個很大的開放性問題。這個實驗似乎很有限(它甚至沒有使用其最新的MUM人工智能模型),它可能不會給我們答案,但如果它成為Google搜索的核心功能,可能會相當有幫助。