谷歌生成式人工智慧失敗將逐漸削弱用戶信任
對於Google來說,這是一個忙碌的陣亡將士紀念日週末,因為該公司正在努力控制其搜尋平台的新AI 概覽功能帶來的大量瘋狂建議所帶來的影響。 AI Overview 旨在為搜尋查詢提供基於AI 的生成性回應。通常情況下,它確實會這樣做。但上週,它還告訴用戶,他們可以使用無毒膠水來防止起司從披薩上滑落,他們每天可以吃一塊石頭,並聲稱巴拉克·歐巴馬是第一位穆斯林總統。
Google對此作出回應,刪除了這些回复,並表示正在利用這些錯誤來改進其係統。但這些事件,加上Google災難性的Gemini 圖像生成器發布,導致該應用程式生成了歷史上不準確的圖像,可能會嚴重損害這家搜尋巨頭的信譽。
「Google應該是網路上的主要資訊來源。」紐約大學坦登工程學院電腦科學與工程副教授Chinmay Hegde 解釋道。 “如果該產品被淡化,它將慢慢侵蝕我們對Google的信任。”
Google的AI 概覽問題並不是該公司自開始其生成式AI 驅動以來第一次遇到麻煩。該公司的Bard 聊天機器人(Google於2 月將其更名為Gemini)在2023 年2 月的宣傳影片中出現了一個錯誤,導致Google股價下跌。
然後還有它的Gemini 影像產生器軟體,它可以產生不準確場景中不同群體的照片,包括1943 年的德國士兵。
人工智慧一直存在偏見,Google試圖透過在生成人物圖像時納入更廣泛的種族多樣性來克服這個問題。但該公司矯枉過正,軟體最終拒絕了一些針對特定背景人物影像的請求。 Google對此作出回應,暫時下線了該軟體,並為此事道歉。
同時,AI 概覽問題出現的原因在於Google表示使用者問了一些不常見的問題。
在吃石頭的例子中,Google發言人表示,似乎一個關於地質學的網站將其他來源的有關該主題的文章聯合發佈到他們的網站上,而這恰好包括了一篇最初出現在洋蔥報上的文章。 AI 概覽連結到了該來源。
這些都是很好的解釋,但Google繼續發布有缺陷的產品並需要解釋的事實讓人感到厭倦。
卡內基美隆大學泰珀商學院商業倫理學副教授德里克‧萊本(Derek Leben) 表示:在某種程度上,你必須對自己推出的產品負責。
「你不能只是說……我們將把人工智慧融入我們所有成熟的產品中,而且它處於持續的測試模式,對於它造成的任何錯誤或問題,我們都不會負責,甚至不會受到指責,就對產品本身的信任而言。
Google是網路上尋找事實的首選網站。每當我和朋友就一些無聊的話題爭論時,我們中的一個總會大喊:「好吧,Google一下!」你很可能也這麼做過。也許不是因為你想證明你比朋友更了解辛普森一家的一些鮮為人知的事實,但仍然如此。
關鍵是,Google已經建立了值得信賴的聲譽,而它的人工智慧失誤正在慢慢侵蝕這一聲譽。
那麼,為什麼會出現這樣的失誤呢? Hegde 說,公司只是行動太快,在產品尚未準備好時就發布,以期超越微軟等競爭對手(微軟) 和OpenAI。
「研究的步伐如此之快,以至於研究和產品之間的差距似乎正在顯著縮小,而這導致了所有這些表面問題。」他解釋道。
自2023 年2 月微軟和OpenAI 聯手發布其Bing 搜尋引擎和聊天機器人的生成式AI 版本以來,Google一直在努力擺脫落後於微軟和OpenAI 的形象。
本月早些時候,OpenAI 甚至在I/O 開發者大會開始前一天宣布了其強大的GPT-4o AI 模型,從而搶在了Google之前。
但如果擊敗競爭對手意味著推出會產生錯誤或有害資訊的產品,那麼Google就有可能給用戶留下這樣的印象:它的生成式人工智慧成果不可信,最終不值得使用。