諾貝爾獎連續“頒給AI”,背後最大贏家竟是Google?
2024年的諾貝爾化學獎一半授予大衛貝克(David Baker),「以表彰在計算蛋白質設計方面的貢獻」;另一半則共同授予德米斯哈薩比斯(Demis Hassabis)和約翰M·詹珀(John M. Jumper),「以表彰他們在蛋白質結構預測方面的成就」。
David Baker 是華盛頓大學蛋白質設計研究所所長,被譽為蛋白質設計領域先驅。 2003年起,他成功設計出全新的Top7等多種創新蛋白質,廣泛應用於藥物、疫苗、奈米材料、微型感測器等領域。並在1999年就提出了蛋白質結構預測演算法RoseTTA,早於Deepmind的AlphaFold。
另兩位得獎者就更不陌生。 Demis Hassabis是Google DeepMind共同創辦人兼CEO,John M. Jumper現任Google DeepMind總監。兩人透過領導團隊開發AI 模型AlphaFold 2,解決了困擾科學界50年的難題:從胺基酸序列預測蛋白質的複雜結構。
蛋白質是生命的基礎化學工具,它們控制並推動所有生物化學反應,擔任荷爾蒙、訊號物質、抗體和組織建構的關鍵角色。在蛋白質中,胺基酸以長鏈的形式連接在一起,並折疊成三維結構。自1970年代以來,研究人員一直嘗試根據胺基酸序列預測蛋白質結構,無奈進展緩慢,直到四年前DeepMind帶來的驚人突破。
2020年,Demis Hassabis和John Jumper在第一代AlphaFold 的基礎開發了AlphaFold 2。它幾乎能夠預測所有已被研究人員識別的2億個蛋白質的結構,至今已被引用超過2萬次,被來自190個國家200多萬人使用,在推動包括瘧疾疫苗、癌症治療、酵素設計和抗生素抗藥性研究等領域取得了巨大進展。實際上在諾獎以前,兩人已於去年獲得素有“科學界奧斯卡”之稱的生命科學突破獎和“諾獎風向標”拉斯克獎,以表彰他們為基礎醫學研究做出的突出貢獻。
瑞典皇家科學院在聲明中稱,“沒有蛋白質,生命無法存在。如今我們能夠預測蛋白質結構並設計自己的蛋白質,這為人類帶來了巨大的福祉。”
得知得獎消息後,Google DeepMind官方第一時間發文「報喜」。
Demis Hassabis也發表聲明表示:
「獲得諾貝爾獎是我一生的榮譽。感謝瑞典皇家科學院,感謝John Jumper和AlphaFold團隊,感謝更廣泛的DeepMind和Google團隊,以及所有為這一時刻做出貢獻的同事。我將我的職業生涯奉獻給AI的進步,因為它擁有無與倫比的潛力,能夠改善數十億人的生活。視為AI加速科學發現巨大潛力的第一個實證。
John Jumper隨即表示:“這是AI能夠加速科學研究並最終幫助理解疾病和開發治療方法的一個重要證明。這項工作歸功於Google DeepMind的優秀團隊,這個獎項也認可了他們的傑出貢獻。”
至此,加上此前率先獲得物理學獎,並引發高度討論度的“AI教父”杰弗裡·E·辛頓(Geoffrey E. Hinton),這些今年最受關注的獲獎者背後,共同的交集很明顯-辛頓是承載Google早期AI野心的Google Brain的核心人物,而Demis Hassabis是承載Google近年來AI研究任務的Google Deepmind的靈魂。
怪不得連「諾貝爾派對」都直接在Google園區舉辦了。
在諾貝爾獎連續發給AI科學家背後,Google也「贏麻了」。
谷歌的進攻
從時間線上來看,Google絕對是最早入局人工智慧的大公司玩家。
儘管在許多故事版本中,都將2012年冬天那場發生在美國太浩湖旁賭場酒店裡的秘密競拍,描述為Google、微軟、百度三家科技巨頭與DeepMind之間,圍繞Hinton剛成立、除了幾篇論文外沒有任何實質產品的小公司DNNResearch的公平競爭。但事後回看,這場競標的結局其實早已註定。因為它的起源之一,正是來自6個月前Google的推動。
2012年6月,Google Brain公開啟動「Google貓(The Cat Neurons)」項目,以演算法辨識YouTube影片中的貓。由吳恩達領導,Jeff Dean參與,並獲得公司創辦人Larry Page的大力支持。
該項目構建了一個擁有10億個連接的大型神經網絡,使用來自YouTube的1000萬段未標註視頻,在16,000個CPU上進行訓練。透過無監督學習,該系統成功自主學會了辨識貓臉,準確率達74.8%,並能辨識人臉等其他物體。
不過,吳恩達在專案後期選擇了激流勇退,臨走前向Google舉薦了自己的老師Hinton接替工作。 Hinton表示自己不會離開大學,只願意去Google「待一個夏天」。就這樣,他成為Google史上最年長的實習生。
作為深度學習領域的權威,Hinton很快就意識到專案的缺陷,指出谷歌貓「運行了錯誤的神經網絡,並使用了錯誤的計算能力。」於是在短暫的「實習期」結束後,Hinton馬上召集學生Ilya Sutskever和Alex Krizhevsky組建團隊,開發了新的神經網路架構AlexNet。並帶著僅4顆英偉達GPU訓練出來的成果參加了2012年ImageNet影像辨識比賽,最終以84%的準確率取得顛覆性勝利。
同年10月,Hinton團隊在佛羅倫斯電腦視覺會議上正式介紹了冠軍演算法AlexNet。一支學界團隊逆襲擊敗硬體和研發資源對比懸殊的Google,引發學術界和產業界徹底轟動。 AlexNet論文也成為電腦科學史上最具影響力的論文之一,被引次數超過12萬。
接下來,三人的DNNResearch公司註冊成立。後續競標的發展就更加順理成章,當身價被提高到4400萬美元時,Hinton叫停了拍賣,與兩名學生一起正式加入谷歌,擔任Google Brain副總裁和工程研究員。
當時的Hinton在一篇聲明中寫道:“我會繼續在多倫多大學兼職任教,但在Google,我能夠看到我們如何處理超大型計算。”
在直到2023年5月的十年Google生涯中,Hinton繼續參與大規模人工神經網路研究,為Bard和ChatGPT等現代AI系統的底層技術奠定了基礎性貢獻。他也參與開發了開源機器學習軟體庫TensorFlow,推動了影像辨識、語言理解等AI應用的能力提升,並將深度學習技術廣泛應用於Google的各類產品和服務中。
Google對人才和科技的聚集從未放緩。在收購DNNResearch僅兩年後,當年參與競標的對手之一, Hassabis創立的DeepMind也被它納入囊中。
據悉,Google當時還專門包了架私人飛機帶Hinton去倫敦」驗貨“,並且專門改造了座椅,解決他背痛不能坐飛機的問題。而當時被Google擠走的Facebook在錯失DeepMind後,則轉而高價挖走了「深度學習三巨頭」之一的Yann LeCun。
Deepmind的故事
來到DeepMind這邊,其實被Google收購前,DeepMind已經在財務方面遇到了困難,公司一直在燒錢,卻未能找到可持續的商業模式,甚至瀕臨破產。
谷歌的6億美元收購拯救了DeepMind,不僅保留了核心技術團隊,也為其提供了強大的運算資源,包括雲端運算平台和資料中心支援。這讓DeepMind能夠利用更強的算力來訓練深度神經網絡,特別是在AlphaGo的開發中,大幅提升了運算速度和模型精確度。除此之外,Google還提供了專門設計的TPU(張量處理單元),進一步優化了深度學習模型的訓練和推理效率,AI基礎工具TensorFlow也被廣泛應用到DeepMind的研究之中,協助加強AlphaGo的表現。
AlphaGo是DeepMind團隊開發的一款人工智慧圍棋程式。它透過分析數百萬局棋譜,用自我對弈強化學習,掌握了複雜的圍棋策略,能夠超越人類頂尖圍棋選手。 2016年,AlphaGo在與圍棋世界冠軍李世石的比賽中取得了4比1的勝利,從此一戰成名,震驚全球。
然而在Hassabis眼中,透過棋盤遊戲驗證AI解決複雜問題的潛力只是開始。更重要的是用它來引導通用學習系統,應對現實世界的挑戰,從而真正改善人類生活、革新產業並推動科學發展。
於是在幾個月內,DeepMind便迅速僱用生物學家,組建了一支跨學科團隊,專注於解決蛋白質折疊難題,最終在2018年促成了AlphaFold計畫誕生。經過多次迭代,AlphaFold已憑藉其突破性的蛋白質結構預測能力,徹底改變了生物學研究,展現了AI在科學領域的強大應用前景。
就在今年5月,Google Deepmind再次官宣,與Isomorphic Labs聯合推出新一代蛋白質預測模型AlphaFold 3,相關論文一舉登上《Nature》雜誌。
與先前的版本相比,AlphaFold 3不僅在蛋白質折疊預測上取得了進展,還首次實現了對蛋白質、DNA、RNA及配體等生命分子的結構及其相互作用的高精度預測。這項突破幫助科學家更深入地理解疾病機制和生命過程,同時大幅縮短了研發時間和成本。無論是開發可再生材料,或是加速藥物設計和基因組學研究,AlphaFold 3都為生物分子領域開啟了更廣泛的應用空間。
不僅如此,團隊還基於AlphaFold 3推出了一個名為AlphaFold Server的免費平台,供全球科學家進行非商業性研究,進一步推動科學探索的普及。
透過DeepMind,Google不斷吸引全球頂尖的科研人才,並提供長期的資金支持,使其能夠專注於突破性研究,而不必依賴短期的商業回報。 Google也賦予了DeepMind高度的策略自主權,使其能夠自由選擇研究方向。正是這種獨立性和長期支持,為DeepMind進行前瞻性研究奠定了堅實基礎。
除了遊戲領域和生物學突破外,DeepMind還開發用於Google助理的逼真語音合成模型WaveNet,提升語音互動體驗。透過視覺-語言-動作模型RT-2增強了機器人在多元環境中的任務執行能力。其研究還涉及天氣預測、核融合反應器等複雜問題,並透過AlphaCode和AlphaDev等項目推動了電腦演算法的進一步發展。
Google的「家底」依然深厚
在今天的人工智慧競爭中,OpenAI和Anthropic等明星公司的迅速崛起、ChatGPT、Claude之於Gemini的“碾壓”,一度讓人們對Google的AI策略產生了質疑。特別在生成式AI產品和開發者工具的商業化進程上,OpenAI們的快速發展與Google相對緩慢的步伐形成了鮮明對比。
然而眼前的兩項諾貝爾獎似乎在提醒我們,Google深厚的科研土壤和技術累積仍是其他公司難以複製的優勢。
在2006年之前,深度學習的現狀可以用開爾文男爵的那句名言來概括:“深度學習的大廈已經基本建成,只不過在陽光燦爛的天空下,漂浮著三朵小烏雲。”
這三朵小烏雲分別是演算法、算力和數據。
而Google恰恰在這些關鍵領域擁有明顯優勢。首先,它掌握了全球領先的龐大資料資源,依托YouTube、Google Scholar和Google Search等平台,Google為視覺、語音辨識和自然語言處理等AI模型提供了豐富且多樣化的訓練資料。
其次,Google在運算資源方面具有顯著優勢。其自主開發的TPU硬體大大加快了深度學習模型的訓練速度,Google Cloud不僅為內部研究提供了強大的運算能力,也為全球開發者提供了工具,幫助他們快速建置和部署複雜的AI應用。
在演算法研發領域,Google也處於產業前沿。誕生於Google Brain團隊的Transformer架構奠定了現代自然語言處理的基礎,推動了今天幾乎所有前沿AI模型的發展。這些技術不僅推動了學術界的進步,也廣泛應用於Google的核心產品。
2024年,AI領域仍面臨演算法、算力和數據挑戰。儘管許多公司也各自在某些領域有所突破,但相較之下,似乎同時具備三方面優勢並持續有效結合的,還是Google。
在與OpenAI、微軟等公司的競爭中,Google的「家底」依然厚實,在AI競賽中也並未被打敗。人工智慧的潛力遠未被充分挖掘,而在這場長跑中,或許技術創新的深度和廣度決定了最終的勝者。