消息稱Google正在測試一個帶有ChatGPT式問答提示的備用主頁
我們知道Google目前對AI 聊天機器人ChatGPT 感到恐懼,但CNBC 的一份報告提供了有關這家搜索巨頭顯然是如何組織其回應的新細節。據CNBC 報導,Google員工目前正在測試他們自己的名為“Apprentice Bard”的AI 聊天機器人,它可以像ChatGPT 一樣使用自然語言回答問題。
Bard 是使用Google的L AMD A 技術構建的,該技術本身類似於ChatGPT 本身所依賴的GPT 系列人工智能語言模型。(Google過去曾使用LaMDA 在I/O 上為類似的聊天機器人演示提供支持,比如與Pluto 的對話。)
據報導,Bard 相對於ChatGPT 的一大優勢是它能夠談論最近發生的事件。正如OpenAI 警告的那樣,ChatGPT“對2021 年後的世界和事件的了解有限”,但Bard 更及時,甚至能夠回答有關Google最近裁員的問題。
在內部流傳的一個例子中,一位測試人員詢問Bard,Google是否會進行另一輪裁員。本月早些時候,該公司解雇了12000 名員工,佔其員工總數的6%。
“根據我的數據庫顯示,Google不太可能在2023 年進行另一輪裁員,”回復中寫道。“裁員通常是為了降低成本和結構,但公司的財務狀況良好。 事實上,Google的收入在2021 年增長了34%,公司股價自2022 年1 月以來上漲了70%。”
CNBC 表示,Google還在測試其主頁的替代版本,其中一個版本用潛在問題提示取代了“手氣不錯”按鈕。也許不出所料,這種設計聽起來類似於ChatGPT 的主頁,它在搜索/對話框上方列出了示例問題、功能和限制。
輸入問題後,搜索結果會在搜索欄正下方顯示一個灰色氣泡,提供比典型搜索結果更接近人類的回答。在其正下方,該頁面提出了與第一個問題相關的幾個後續問題。在此之下,它顯示典型的搜索結果,包括鏈接和標題。
ChatGPT 主頁的屏幕截圖,顯示了一個搜索欄,其上方的三列列出了系統的“示例”、“功能”和“限制”。
當然,這只是目前的早期報導,目前還不清楚Google將以何種形式回應ChatGPT。除了UI 決策之外,人工智能語言模型用於搜索的有效性也存在很大問題。Google自己在2021 年發表的論文中概述了一些問題,其中包括這些系統傾向於復制社會偏見和成見,以及它們“幻覺”數據的頻率——將虛假信息呈現為真實。
儘管如此,由於該公司已針對ChatGPT 的出現宣布了“Code Red”,因此可能會為了趕上競爭對手而放棄諸如“真實性”之類的優點。