諾貝爾物理學獎今年頒給AI教父
諾貝爾物理學獎,今年頒給AI!機器學習先驅Hinton、Hopfield共同獲獎,出乎所有人意料。沒錯,不是事前預測中熱門的凝聚態或量子物理等方向,就是AI,是機器學習,更具體來說,神經網路。以表彰他們為利用人工神經網路進行機器學習所做的基礎性發現與發明」。那麼,他們的貢獻與物理關聯何在呢?
諾貝爾獎委員會揭秘:
他們利用了物理學方法來尋找資訊的特徵,建構了為當今強大的機器學習奠定基礎的方法。
Hopfield提出的「Hopfield神經網路」,以相當於物理學中自旋系統能量的方式來描述。
Hinton提出的「玻爾茲曼機」,則使用了統計物理學中的工具。
後來Hinton在這項工作的基礎上,幫助啟動了當前機器學習的爆炸性發展,也就是我們熟知的深度學習革命了。
人工神經網路的第一塊重要基石
約翰·霍普菲爾德(John Joseph Hopfield)出生於1933年7月15日。
1954年獲得斯沃斯莫爾學院物理學士學位。 1958年在康乃爾大學獲得博士學位。
他早期聚焦於物理化學和凝聚態領域研究。後來在貝爾實驗室工作期間,對分子生物學產生了濃厚興趣。
從1940年代起,研究人員開始推理大腦神經元和突觸網路背後的數學邏輯。
後來,人們便開始嘗試利用電腦來模擬大腦網路功能。也就是開始建構人工神經網路。
在這些網路中,大腦的神經元被賦予不同值的節點所模仿,突觸由節點之間的連接表示,這些連接可以變得更強或更弱。唐納德·赫布的假設仍然被用作透過稱為訓練的過程來更新人工網路的基本規則之一。
之後很長一段時間裡,學界都在嘗試用數學、物理的方法來探索生物神經學。
例如Hopfield,他曾利用他在物理學的背景來探索分子生物學的理論問題。
當他被邀請參加一個關於神經科學的會議時,他遇到了關於大腦結構的研究。他對所學到的東西感到著迷,並開始思考簡單神經網路的動態。
當神經元一起作用時,它們可以產生新的和強大的特性,這些特性對於只觀察網路單獨組件的人來說並不明顯。
1980年,Hopfield離開了他在普林斯頓大學的職位,他的研究興趣已經超越了他在物理學的同事們工作的領域,他跨越大陸搬到了加州帕薩迪納的加州理工學院(Caltech),那裡他可以免費使用電腦資源進行實驗,並發展他對神經網路的想法。
然而,他並沒有放棄他在物理學方面的基礎,並在其中找到了靈感,理解瞭如何系統地使用許多小組件一起工作可以產生新的和有趣的現象。
他特別受益於磁性材料的學習,由於它們的原子自旋——一種使每個原子成為微小磁鐵的屬性——具有特殊特性。
鄰近原子的自旋相互影響;這可以允許形成自旋方向相同的域。他能夠透過使用描述材料如何發展的物理學來建立一個具有節點和連接的模型網絡,當自旋相互影響時。
大腦的神經網路是由具有先進的內部機制活細胞神經元構成的。它們可以透過突觸向彼此發送信號。當我們學習事物時,某些神經元之間的連結變得更強,而其他連結變得更弱。
人工神經網路是由編碼有值的節點建構的。節點相互連接,當網路被訓練時,同時活躍的節點之間的連接變得更強,否則它們變得更弱。
Hopfield建構的網路節點透過不同強度的連接相互連接。
每個節點可以儲存一個單獨的值——在Hopfield的第一次工作中,這可以是0或1,就像黑白圖片中的像素格一樣。
Hopfield用一個屬性來描述網路的整體狀態,這相當於物理學中自旋系統中的能量;能量是使用一個公式計算的,該公式使用所有節點的值和它們之間所有連接的強度。霍普菲爾德網路透過將圖像輸入到節點,賦予它們黑色(0)或白色(1)的值來編程。
然後,網路的連接使用能量公式進行調整,以便保存的圖像獲得低能量。當另一個模式輸入到網路時,有一個規則是逐一檢查節點,看看如果改變該節點的值,網路的能量是否會降低。
如果發現如果黑色像素是白色,能量會降低,它就會改變顏色。這個過程繼續進行,直到無法找到進一步的改進。
當達到這一點時,網路通常已經在它被訓練的原始圖像上複製了自己。
如果只保存一個模式,這可能看起來不那麼引人注目。
也許你想知道為什麼你不只是保存圖像本身並與正在測試的另一個圖像進行比較,但Hopfield的方法之所以特別,是因為可以同時保存多張圖片,網絡通常可以在它們之間進行區分。
Hopfield將搜尋網路以尋找保存的狀態比作在有摩擦減緩其運動的山峰和山谷景觀中滾動一個球。
如果球被放在一個特定的位置,它會滾進最近的山谷並在那裡停止。如果網路被給予一個接近保存模式之一的模式,它將以相同的方式繼續前進,直到它最終到達能量景觀中的山谷底部,從而找到記憶中最接近的模式。
Hopfield等人之後更進一步深入研究霍普菲爾德網絡,包括可以儲存任何值的節點,不只是0或1。
如果將節點視為圖片中的像素,它們可以有不同的顏色,而不僅僅是黑色或白色。
改進的方法使得保存更多圖片成為可能,即使它們非常相似,也能區分它們。同樣可以識別或重建任何信息,只要它由許多數據點構建。
不過記住一個圖像是一回事,解釋它所代表的內容是另一回事。
即使是非常小的孩子也可以指向不同的動物,並自信地說它是狗、貓還是松鼠。
他們可能偶爾出錯,但很快就能正確分辨。孩子甚至可以在沒有看到任何圖表或解釋物種或哺乳動物等概念的情況下學習這一點。在遇到每種動物的幾個例子後,不同的類別在孩子的腦海中形成了。人們透過體驗周圍的環境來學習識別貓,或理解一個詞,或進入一個房間並注意到有些事情已經改變。
當Hopfield發表他的聯想記憶文章時,Hinton正在卡內基美隆大學工作。
他之前在英國和蘇格蘭學習實驗心理學和人工智慧,並想知道機器是否能夠以類似於人類的方式學習處理模式,為排序和解釋資訊找到自己的類別。
Hinton:現在是圖靈諾貝爾雙料得主
Hinton的研究正是建立在霍普菲爾德神經網路之上。
當時Hinton在卡內基美隆大學工作,他之前曾在英國研究過實驗心理學和人工智慧,想知道機器是否可以學習,是否可以與人類類似的方式處理資訊。
他與同事Terrence Sejnowski一起,利用統計物理學的想法擴展霍普菲爾德網絡。
統計物理學描述由許多相似元素組成的系統,例如氣體中的分子。
追蹤氣體中的所有單獨分子是困難或不可能的,但可以將它們集中考慮以確定氣體的壓力或溫度等整體特性。
氣體分子有許多潛在的方式以各自的速度在其體積中擴散,可以使用統計物理學來分析各個組件可以共同存在的狀態,並計算它們發生的機率。
十九世紀物理學家路德維希·玻爾茲曼用方程式描述了有些狀態比其他狀態更有可能發生。
Hinton利用了這個方程,提出玻爾茲曼機。
玻爾茲曼機與今天的深度神經網路一樣,可以從例子中學習,透過更新網路連接中的值來進行訓練。
最初版本的玻爾茲曼機效率相當低,到1990年代,許多研究人員對人工神經網路失去了興趣,Hinton是少數堅持下來的人。
到了2006年,他和同事們一起在玻爾茲曼機的基礎上開發「深度信念網路」(Deep Belief Nets),其中提出無監督的逐層訓練方法,後來成為深度學習的基礎。
在最後,諾貝爾獎委員會提到,Hopfield和Hinton兩人在80年代的工作為2010年左右開始的機器學習革命奠定了基礎。
物理學為機器學習的發展貢獻了工具,相應的,現在機器學習也惠及了物理研究。
例如,機器學習長期應用於希格斯粒子發現等諾獎領域,用於處理海量資料;它還可用於減少重力波測量中的噪聲,或搜尋系外行星。
近年來,這項技術也開始被用於計算和預測分子及材料的性質,如計算決定蛋白質功能的分子結構,或設計性能更佳、可用於高效能太陽能電池的新型材料。
One More Thing
眾所周知,身為深度學習三巨頭之一的Hinton,也是2018年圖靈獎得主。
往前看,在Hinton之前,同樣一手諾貝爾獎一手圖靈獎的科學家,有且僅有一位。
赫伯特·亞歷山大·西蒙(Herbert Alexander Simon,中文名司馬賀)。
與Hinton一樣,西蒙也是先拿圖靈獎,再拿諾貝爾獎——
1975年,西蒙和艾倫·紐厄爾(Allen Newell)因在人工智慧、人類心理識別和列表處理等方面進行的基礎研究,榮獲圖靈獎。
(他兩人是符號主義的創始人和代表人物,提出了物理符號系統假說)
1978年,西蒙因為「有限理性說」和「決策理論」獲得諾貝爾經濟學獎。
參考連結:
[1]https://www.nobelprize.org/
[2]https://www.cs.toronto.edu/~fritz/absps/ncfast.pdf
來源:量子位