谷歌與兄弟公司DeepMind拋開恩怨聯手追趕OpenAI
據報導,OpenAI不僅憑藉人工智能聊天機器人成功超越谷歌,還意外促成了另外一件原本幾乎不可能發生的事情:這迫使Alphabet旗下谷歌以及DeepMind的兩大人工智能研究團隊暫時擱置多年的恩怨,決定聯手追趕OpenAI。
知情人士透露,谷歌大腦(Google Brain)的軟件工程師正與DeepMind的員工合作開發與OpenAI競爭的軟件。DeepMind是Alphabet旗下的一家人工智能實驗室。谷歌之前為挑戰OpenAI的ChatGPT而推出了Bard聊天機器人,但卻在演示現場意外翻車。此後不久,Alphabet決定啟動這個名為Gemini的聯合項目。
一位著名谷歌人工智能研究員的辭職也對Bard的發布產生了內部影響,他曾經就這個項目的開發向Alphabet CEO桑達爾-皮查伊(Sundar Pichai)和其他高管提出過警告。
谷歌在2014年收購DeepMind,但DeepMind與穀歌大腦之間的關係更像是競爭對手,而非合作者。這兩家公司都在爭相改進谷歌的產品和服務,努力尋求科研突破。但現在,Alphabet旗下的這兩個人工智能實驗室都認為,OpenAI已經超過自己。此外,創業公司在紛紛挖角他們的重要工程師和研究員。
OpenAI在去年11月發布ChatGPT,這款聊天機器人可以模仿人類提供答案,並一舉成為有史以來增長速度最快的應用之一。谷歌自己的聊天機器人Bard上周剛剛開放給部分用戶使用,在某些任務上的效果似乎遜於ChatGPT。
知情人士稱,谷歌最資深的人工智能研究主管兼谷歌大腦負責人傑夫-迪恩(Jeff Dean)已經在Gemini項目中擔任技術角色,負責編寫代碼,幫助谷歌開發能與OpenAI的GPT-4相媲美的機器學習模型。由此足以看出Gemini在Alphabet內部的重要性。
這項措施也體現出谷歌調整搜索和雲等多個部門的產品路線圖,以應對OpenAI與微軟的合作帶來的競爭。OpenAI已經將ChatGPT等技術融合到微軟的產品中,而微軟則為這家創業公司提供資金和算力支持。
但Gemini多少有些不得已而為之的意思。Alphabet旗下的這兩大人工智能實驗室很少相互合作,也很少彼此分享代碼。但知情人士表示,由於雙方現在都希望開發與OpenAI競爭的機器學習模型,而且也都需要大量的算力支持,所以Alphabet也只能勉為其難強迫二者合作。
Bard之路,充滿爭議與擔憂
Bard演示過程中的意外翻車揭示出谷歌的問題。知情人士透露,這款聊天機器人的開發過程充滿爭議,導致谷歌的著名人工智能工程師雅各布·德夫林(Jacob Devlin)今年1月辭職後很快就加入OpenAI。德夫林是一篇開創性論文的主要作者,這篇論文闡述瞭如何訓練機器學習模型,以提高它們對一組組句子的理解能力——OpenAI已經將這項創新整合到自己的語言模型中。
德夫林是在向皮查伊、迪恩和Bard團隊的其他高管表達擔憂後離職的。Bard團隊獲得了來自谷歌大腦員工的幫助,還利用OpenAI的ChatGPT數據訓練其機器學習模型。具體來說,德夫林認為,Bard團隊似乎過於依賴ShareGPT的信息——ShareGPT是一個網站,人們會在這個網站上發布他們與ChatGPT之間的對話。
一些谷歌員工認為,使用這樣的聊天日誌會違反OpenAI的服務條款,因為後者在官方網站上明確表示,禁止使用“輸出……來開發與OpenAI競爭的模型”。德夫林還對高管表示,他擔心,如果過分依賴ShareGPT上共享的ChatGPT聊天日誌,Bard的答案會與ChatGPT過於相似。
知情人士表示,在德夫林表達擔憂後,谷歌停止使用ChatGPT的數據訓練Bard。Bard團隊的部分領導職能由西西-肖(Sissie Hsiao)負責,她的職位是副總裁,之前曾經負責過谷歌Assistant,這是一款與蘋果Siri類似的語音助手。
谷歌發言人並未對德夫林的離職和擔憂發表評論。OpenAI發言人尚未作出回應。
搜索攻防戰進行時
OpenAI已在最近的AIGC(生成式人工智能)大戰中處於領先地位,但具體會對Alphabet產生怎樣的商業影響還不可知。儘管ChatGPT會出現許多錯誤,但已經有數百萬人使用它及其背後的技術來快速生成博客文章、總結會議要點、製作電子表格,以及完成各種各樣的任務。
這款產品迄今為止的收入還很少,但這種情況可能會改變。微軟已經在OpenAI的幫助下,在自家搜索引擎中整合與ChatGPT類似的功能,希望以此提升搜索市場份額。不過,微軟目前還沒從谷歌手中搶走太多份額。但OpenAI似乎已經開啟了一個全新的時代:應用程序已經可以理解用戶通過自然語言提出的要求。
Gemini的目標是開發一個大語言模型(一種可以理解和生成類似人類語言的計算機程序),並將使用至多1萬億個參數(這個指標可以用來衡量機器學習模型的計算量)。據報導,GPT-4同樣擁有大約1萬億個參數。谷歌的項目需要使用數万個TPU。TPU是谷歌開發的一種與英偉達的GPU類似的微芯片,非常適合訓練大型機器學習模型。不過,Gemini可能需要數月時間才能產出實際成果。
與此同時,隨著谷歌內部爭相將人工智能融合到自己的產品中,該公司的其他團隊也在開發自己的大語言模型。負責搜索排序的谷歌高管潘杜-納亞克(Pandu Nayak)一直在開發一個獨立的模型,希望處理特定的搜索請求。而谷歌云也在開發自己的模型來出售給雲服務客戶,類似於OpenAI或微軟目前提供的服務。