Google讓Bard人工智慧學會懷疑自己嘗試二次核實矛盾訊息
讓我們來談談Bard 的進步,即Google對ChatGPT 的回應,以及它如何解決當今聊天機器人最迫切的問題之一:聊天機器人喜歡胡編亂造。
從去年聊天機器人問世之日起,它們的製造商就警告我們不要相信它們。像ChatGPT 這樣的工具所產生的文本並不是基於既定事實的資料庫。相反,聊天機器人是預測性的–根據其底層大型語言模型所訓練的大量文本語料庫,對哪些詞語似乎是正確的進行概率猜測。
因此,用行業術語來說,聊天機器人經常會”自信地出錯”。這甚至會愚弄受過高等教育的人,正如我們今年看到的律師提交由ChatGPT 生成的引文的案例——他並沒有意識到每一個案例都是無中生有。
這種情況解釋了為什麼我覺得聊天機器人作為研究助理大多毫無用處。它們會在幾秒鐘內告訴你任何你想要的訊息,但在大多數情況下都不會引用它們的工作成果。因此,你需要花費大量時間研究它們的回答是否屬實–這往往違背了使用聊天機器人的初衷。
Google的Bard 在今年稍早推出時,有一個”Google It”按鈕,可以將你的查詢提交給公司的搜尋引擎。這雖然能讓你更快獲得關於聊天機器人輸出結果的第二意見,但還是讓你承擔了判斷真假的責任。
不過從今天起,Bard 將為你做更多的工作。在聊天機器人回答了你的一個問題後,點擊Google按鈕就可以”複核”你的回答。以下是該公司在一篇部落格文章中的解釋:
當你點擊”G”圖示時,”Bard”會閱讀你的回答,並評估網路上是否有內容可以證實你的回答。如果可以對聲明進行評估,你可以點擊高亮顯示的短語,了解更多有關搜尋發現的支援或矛盾資訊。
仔細檢查查詢會將回覆中的許多句子變成綠色或棕色。綠色高亮顯示的回應連結到引用的網頁;將滑鼠懸停在其中一個網頁上,Bard 會向您顯示訊息的來源。棕色高亮顯示的回應表示Bard不知道訊息的來源,突出顯示的可能是一個錯誤。
例如,當我仔細檢查Bard對我關於Radiohead 樂團歷史問題的回答時,它給出了很多綠色高亮的句子,與我自己的知識相符。但它也把這句話變成了褐色:”他們贏得了無數獎項,包括六次格萊美獎和九次全英音樂獎”。將滑鼠懸停在這句話上,會發現Google的搜尋結果顯示了相互矛盾的訊息;事實上,電台司令(Radiohead)從未獲得過一個全英音樂獎,更不用說九個了。
上週,Google產品高級總監傑克-克勞奇克(Jack Krawczyk)在接受我的採訪時說:”我要告訴你發生在我生命中的一個悲劇。”
Krawczyk 曾在家中烹飪劍魚,烹飪過程中產生的氣味似乎瀰漫了整個房子。他用《Bard》查找了除臭的方法,然後仔細檢查了結果,以分辨事實與虛構。結果發現,徹底清潔廚房並不能解決這個問題,就像聊天機器人最初說的那樣。不過,在房子周圍放幾碗小蘇打可能會有幫助。
克勞奇克告訴我,由於人們使用Bard 的方式多種多樣,所以經常不需要反覆檢查。(你通常不會要求它重複檢查你寫的一首詩,或它起草的一封電子郵件等等)。
雖然雙重校驗代表了一個明顯的進步,但它仍然經常需要你調出所有的引文,並確保Bard能正確解釋這些搜尋結果。至少在研究方面,人類仍在牽著人工智慧的手,就像人工智慧在牽著我們的手一樣。
不過,這是一個值得歡迎的發展。
Krawczyk表示:”我們可能已經創建了第一個承認自己犯錯的語言模型。鑑於這些模型的改進事關重大,確保人工智慧模型準確地承認錯誤應該成為業界的重中之重。”
週二,Bard 獲得了另一個重大更新:它現在可以連接到你的Gmail、Docs、Drive 和其他一些Google產品,包括YouTube 和地圖。所謂的擴充功能可以讓你對儲存在Google帳號中的文件進行即時搜尋、彙總和提問。
目前,它僅限於個人帳戶,這大大限制了它的實用性,但作為瀏覽網頁的另一種方式,它有時還是很有趣的–例如,當我要求它向我展示一些關於室內設計入門的精彩影片時,它就做得很好。(可以在Bard 答案視窗中在線播放這些視頻,這一點很不錯。)