Cell子刊批判性發文AI在短期內不可能產生意識
和大語言模式(LLM)交互,我們總是會隱約覺得它們可能真的有意識。然而,從神經科學家的角度來看,這種觀點似乎很難站得住腳。最近,一篇發表於Cell子刊Trends in Neurosciences的論文中,三位分別來自電腦科學、生物學和神經科學的學者深層剖析了「人工智慧能否產生意識?」這個問題。
從結論上看,他們一致認為:LLM在目前的形式下不可能有意識。這麼斬釘截鐵的觀點是怎麼來的呢?來看他們的具體闡述。
▷圖源:Cell
LLM 與意識
長期以來,人們一直在追問,哪些動物具有意識,以及除了動物之外還有哪些實體擁有意識。最近LLM的出現為這個問題帶來了全新的視野。它向我們展現了自己精湛的交談能力(這是人類具有意識的一種表現),也使我們對「理解力」、「智能」和「意識」三個概念開始重新定義和思考。
LLM是擁有數十億連結權重的複雜多層人工神經網絡,這些權重透過數百億字的文字資料進行訓練,這其中也包括人類之間的自然語言對話。透過文字提問,使用者會被引入一個令人著迷的模擬情境中。如果你肯花時間使用這些系統,就很難不被其網路內部所展現出來的深度和品質所震撼。問它一個問題,它的回答往往與一個具有意識的個體能產生的回答微妙的相似。因此,作為一個有洞察力、有意識的個人,我們就很容易得出結論:我所接收到的回答是由一個同樣具有「意識」的個體產生的,這個有「意識」的個體既能夠思考、感受、推理,還頗具經驗。
基於這類「圖靈測試」結果,我們不禁要問,LLM是否已經具有意識,抑或是即將擁有意識?然而,這個問題反過來又將引出一系列的道德困境,例如繼續開發在「意識」覺醒邊緣反覆徘徊的LLM是否合乎倫理?在當今神經科學界,人們並不普遍接受LLM具有「意識」這一觀點,但隨著人工智慧系統能力的不斷提升,關於該觀點的討論不可避免地又重新被擺上檯面。此外,各大新聞媒體也廣泛討論這個問題,促使著神經科學家們從自己專業的角度對這個問題進行客觀的正反解讀。
關於LLM具有潛在意識的觀點往往會得到一類重要依據的支持,那就是LLM的架構在很大程度上受到了大腦特徵的啟發(圖1),而大腦是我們目前唯一能自信地將其歸因於「有意識」的對象。儘管早期的人工神經網路是以大腦皮質的簡化版為基礎來設計的,而現代的LLM經過高度工程化,並根據特定目的進行了調整,不再保留與已知大腦結構的深層同源性。事實上,許多讓LLM在計算上強大的通路特徵(圖1)與我們目前認為在哺乳動物的意識產生和塑造中具有因果力的系統有著截然不同的架構。例如,與意識產生相關的許多神經科學理論認為,丘腦-皮質系統與覺醒系統在意識處理中發揮了核心作用,然而,現代LLM並不具備這兩大系統。
圖1:哺乳動物大腦與大型語言模型之間的宏觀拓樸差異圖源:Trends in Neurosciences
這時有人可能會問,為什麼LLM的架構要模仿大腦的特徵,這點有那麼重要嗎?
在我們看來,主要原因是:我們目前只能確定一種意識的存在,它來自嵌入複雜身體的大腦。有人可能認為,從嚴格意義上說,這個論點可能要進一步縮減到僅涉及人類,儘管許多被認為對主觀意識發揮重要作用的系統級特徵在整個生物譜系上普遍存在,一直延伸到哺乳動物,甚至是無脊椎動物。
話說回來,讓我們先從「意識」的確切意義開始。然後,我們將提出三個反對當前人工智慧系統具有或未來將很快具有意識的觀點的論點:
1. 意識與對生物體有意義的感覺流相關聯;
2. 在哺乳動物大腦中,意識得到高度相互連結的丘腦-皮質系統的支持;
3. 意識可能與生物體系的複雜生物組織密不可分。
意識是什麼?
意識是一個複雜的概念,其定義一直存在爭議。在人類彼此能溝通互動的背景下,溝通對話能力是評估一個人是否具有意識的本能要素。
與LLM基於語言的互動對話常常是在培養一種直覺的感受,這也是用來判斷LLM是否可能具有意識的起點。然而,儘管LLM的互動式對話能力非常出色,但這並不能達到具有意識的正式客觀的衡量標準,只是其具有智慧的初步證據。
LLM的出現使得我們需要重新評估一個人是否能夠直接從與他人的言語互動中產生意識。因此,一種新的觀點認為,我們需要重新制定類人能力和類人特徵的評判標準。
「意識」一詞往往有不同的意義。例如,神經病學家經常提到的“意識水平”,即首先評估一個人是否具有意識,再以更精細的方式評估意識的層次或特定狀態。相較而言,心理學家則更關注意識的內容:即個人內心世界的具體經驗、記憶和想法。此外,意識的不同內容之間也有區別。我們的經驗可以被描述為現像或體驗性的(比方說,看到或聞到一個蘋果,或觸摸到你的手臂),也可以是更抽象的形式(例如,我們如何想像、展望或操作概念記憶)。
關於人工智慧系統是否具有意識這一問題,可以透過多種測試方式來回答:既可以專注於意識的某些含義,也可以同時關注意識的所有含義。在下文中,我們主要關注現象意識,並探討機器是否能夠現象性地體驗世界。
關於環境
生物體在感知外界世界的過程中能夠被利用的部分被稱為它的環境。例如,人類視網膜對波長380 nm – 740 nm的光有反應,即視網膜能夠感知由藍到紅的光譜。如果沒有外部技術輔助,人類就無法偵測到該波長範圍以外的紅外光(>740 nm)或紫外光(<380 nm)。我們在聽覺、體感覺、前庭覺方面也有類似的環境,即相應的聽覺域(人類耳朵能夠聽到20 Hz –20000 Hz的聲音)、體感域(人類可以區分距身體某些部位約1毫米範圍內的刺激)和前庭域(人類半規管的3D結構互相連結為我們提供內在的平衡感)。同時,自然界的其它物種能夠偵測到電磁頻譜其他波段的訊號。例如,蜜蜂可以看到紫外線範圍內的光,蛇除了可以偵測到更傳統的視覺訊號外,還可以偵測到紅外線輻射訊號。
也就是說,不同動物的身體和大腦能夠感知它們周圍環境的敏感度不同。美國心理學家Gibson將生物體在特定的環境中的行動可能性稱為「可供性」(隨著網路科技的滲透,可供性開始被用來解釋數位科技在媒體實踐和人類日常互動中的應用)。
依這麼定義,那麼LLM的環境是什麼?LLM具有怎樣的可供性?根據其演算法設計的本質,LLM僅具有二進位編碼模式,只能接收二進位資訊輸入,並進一步執行複雜的transformer結構中固有的網路演算法,這構成了當今LLM的工作架構。雖然神經元尖峰發放也能夠將傳入的類比訊號編碼為數位訊號(即二元訊號),但傳遞到LLM的訊息流是高度抽象的,這些高度抽象的訊息流本身與外部世界並沒有任何緊密的聯繫。被編碼成一串字母的文本和語音根本無法與自然世界的動態複雜性相匹配,即LLM的環境(提供給它的二進制信息)與我們睜開眼睛或交流對話時進入大腦的信息以及隨之而來的體驗相比,具有本質差異。傳統哲學論述強調了不同物種之間資訊流的獨特性(例如,人類與蝙蝠之間的區別)以及這些經驗的現象學特徵。我們認為,LLM獲得的資訊輸入可能會表現出更顯著的差異,雖然暫時還沒有確切的方法來量化這種差異。
話雖如此,未來人工智慧系統的輸入將會不可阻擋地變得更加豐富。未來的LLM可以配備不同類型的輸入,這能夠與有意識的智能體每天能訪問的信號類型(即自然世界的統計數據)更好地進行匹配。那麼,未來人工智慧系統的可用環境會比人類的環境範圍更廣嗎?
在回答這個問題時,我們必須認識到人類的潛意識和意識體驗不僅僅由感官輸入決定。例如,想像當我們躺在一個浮箱中,儘管我們缺乏正常的感官體驗,但我們仍然具有意識。這裡強調了一個概念,即環境預設了一種固有的主觀視角,也就是說,要從一個主體出發。同樣,可供性取決於主體的內在性質,特別是主體的動機和目標。這意味著僅僅透過環境(LLM的輸入資料)還不能夠產生意識。因此,簡單地向人工智慧系統輸入大量資料流並不能夠使智慧系統自身產生意識。
這一觀點可能會促使我們重新思考意識科學中的一些基本假設。具體來說,隨著人工智慧系統逐步表現出越來越複雜的能力,研究者將不得不重新評估某些意識理論所提出的更基本的自我和與智能體相關的過程對於意識出現的必要性。
意識的“整合”
目前,學界已有許多關於意識的神經相關性研究,其中關於意識處理的神經環路有許多不同的理論。一些強調,意識是由密集的、高度連結的丘腦-皮質網絡所支撐的。丘腦-皮質網絡包括皮質區域、皮質-皮質連接以及高級丘腦核團向皮質區域的發散投射。丘腦-皮質系統的這種特定結構支持循環和複雜的思想處理,這些思想處理是意識和意識整合的基礎(即,儘管意識產生於不同的大腦區域,但意識是統一的)。然而,不同理論對實現意識整合的方式持有不同觀點。
根據全局神經元工作空間理論(global neuronal workspace theory, GNW),意識依賴由分佈式額頂葉皮質系統構成的中央工作空間。這個工作空間整合了來自局部皮質處理器的訊息,然後在全局範圍內將其傳遞給所有的皮質局部處理器,全局傳遞將有意識和無意識過程區分開來。其它意識理論認為,意識整合是由其它的神經過程來實現。例如,神經元樹突整合理論(dendritic integration theory, DIT)表明,意識整合是透過不同皮質區域之間的高頻同步現象產生的,根據所涉及的皮質區域不同,這一現象可能涉及包括感知、認知或運動規劃等在內的不同功能。
▷圖2:基於神經元樹突整合理論(DIT)的意識整合的神經結構圖源:Trends in Neurosciences
圖註:在DIT理論(圖2)中,研究人員認為全局意識整合同樣取決於皮質第五層錐體神經元的局部整合,這種神經元是一種在丘腦-皮質和皮質環路中都佔據中心地位的大型興奮性神經元。這類神經元有兩個主要結構(圖2,橘色和紅色圓柱體),分別處理完全不同類型的信息:基底結構(紅色)處理外部基本訊息,而頂端結構(橘色)處理內部產生的訊息。根據DIT理論,在意識狀態下,這兩個結構相互耦合,允許資訊透過丘腦-皮質和皮質-皮質環路流動,從而實現全系統資訊的整合和意識產生。
值得注意的是,當今LLM和其他人工智慧系統的架構都缺乏這些理論所強調的特徵:現有LLM既沒有等效的雙結構錐體神經元,也沒有集中的丘腦架構、全局工作空間或上升覺醒系統的多個特點。換句話說,現有人工智慧系統缺少目前神經科學界所認為的支撐意識所產生的大腦特徵。儘管哺乳動物的大腦不是唯一能夠支撐意識產生的結構,但來自神經生物學的證據表明,哺乳動物意識的形成是由非常具體的結構原理(即整合神經元和激發神經元之間的簡單連接)所決定的。從拓樸結構上講,現有人工智慧系統的結構極為簡單,這也是我們不認為現有人工智慧系統具有現象意識的原因之一。
那麼,未來的AI模型是否最終能夠將許多意識理論視為核心的「整合」過程融入其中呢?針對這個問題,GNW理論所提出的「整合」概念提供了一個相對簡單的實作方式。實際上,一些最近的人工智慧系統已經融入了類似於由本地處理器共享的全域工作空間。由於全局傳遞的計算過程可以在人工智慧系統中實現,因此根據該理論,採用該計算方式的人工智慧系統將包含潛在意識的核心成分。
然而,如前所述,並不是所有的意識理論都認同這種整合方式就是意識產生的關鍵。例如,意識的整合資訊理論認為,在典型的現代電腦上實現的基於軟體的人工智慧系統不可能具有意識,因為現代電腦沒有適當的架構實現充分整合資訊所需的因果推理能力。因此,我們將考慮第三種可能性,即意識在原則上是可以實現的,但它可能需要超出當前(也許是未來)人工智慧系統的計算特異性水平。
意識是一個複雜的生物學過程
意識的產生不僅依賴於系統的架構。例如,當我們處於深度睡眠或麻醉狀態時,丘腦-皮質系統的結構並沒有改變,但意識卻消失了。即使在深度睡眠中,主要感覺區域的局部神經反應和伽瑪帶活動也與有意識狀態相似。這表明,意識依賴於特定的神經過程,但在有意識和無意識的大腦中這些神經過程是不同的。
為了闡明有意識與無意識處理之間的細節差異,讓我們先回過頭來看神經元樹突整合理論(DIT)。DIT理論包含了與有意識和無意識處理的神經過程相關的一些神經生物學方面細微的差別。DIT理論提出,有意識和無意識處理之間的關鍵差異在於錐體細胞的兩個區室結構的整合(圖2)。如前所述,在有意識處理期間,這兩個結構相互作用,從而使整個丘腦-皮質系統能夠處理和整合複雜的資訊。然而,在麻醉狀態下,各種麻醉劑導致椎體神經元兩個結構之間的功能解耦。換句話說,這些椎體神經元雖然在解剖學上是完整的,可以激發動作電位,但其樹突整合能力在生理上受到嚴重限制,即自上而下的回饋訊息不能影響處理過程。研究表明,這種樹突耦合是由代謝型受體控制的,然而在計算模型和人工神經網路中該結構經常被忽略。此外,研究表明,在這種情況下,高級丘腦核團控制這種代謝型受體的活性。因此,特定的神經生物學過程可能負責在大腦中「開啟」和「關閉」意識。這表明,哺乳動物大腦中經驗的品質與其產生意識的潛在過程有著錯綜複雜的關係。
儘管這些理論基礎足以令人信服,幾乎可以肯定的是,和距離完全理解意識產生的神經過程的複雜性相比,這些知識仍然稍微蒼白。我們目前對意識的解釋依賴全球工作空間、整合資訊、循環處理、樹突整合等理論,但真實意識產生的生物過程可能比目前這些理論所理解的要複雜得多。甚至很有可能目前用於構建意識研究討論的抽象計算級思想可能完全沒有考慮到解釋意識所需的必要計算細節。
換言之,生物學是複雜的,我們目前對生物計算的理解是有限的(圖3),因此也許我們缺乏正確的數學和實驗工具來理解意識。
▷圖2:基於神經元樹突整合理論(DIT)的意識整合的神經結構圖源:Trends in Neurosciences
圖註:在DIT理論(圖2)中,研究人員認為全局意識整合同樣取決於皮質第五層錐體神經元的局部整合,這種神經元是一種在丘腦-皮質和皮質環路中都佔據中心地位的大型興奮性神經元。這類神經元有兩個主要結構(圖2,橘色和紅色圓柱體),分別處理完全不同類型的信息:基底結構(紅色)處理外部基本訊息,而頂端結構(橘色)處理內部產生的訊息。根據DIT理論,在意識狀態下,這兩個結構相互耦合,允許資訊透過丘腦-皮質和皮質-皮質環路流動,從而實現全系統資訊的整合和意識產生。
為了更好的理解生物複雜性,需要強調上文所描述的細胞和系統層面發生的生物過程必須發生於一個生物活體中,二者不可分割。活體生物不同於當今的機器和人工智慧演算法,因為它們能夠在不同處理層次不斷地進行自我維護。此外,生命系統有著多方面的演化和發展歷史,它們的存在取決於它們在多個組織層面上的活動。意識與生命系統的組織有著錯綜複雜的關聯。然而,值得注意的是,現今的電腦並不能夠體現生命系統的這種組織複雜性(即係統的不同層次之間的相互作用)。這表明,現代人工智慧演算法沒有任何組織層次上的約束,也無法像一個生命系統一樣有效地運作。這意味著只要人工智慧是基於軟體的,它就可能不適合具有意識和智慧。
生物複雜性的概念在細胞層面也能夠體現。生物神經元不只是一個可以用幾行程式碼完全捕捉的抽象實體。相反,生物神經元具有多層次的組織,並依賴神經元內部複雜的生物物理過程的進一步級聯。以「克雷布斯循環」為例,它是細胞呼吸的基礎,也是維持細胞穩態的關鍵過程。細胞呼吸是一個關鍵的生物過程,使細胞能夠將有機分子中儲存的能量轉化為細胞可以利用的能量形式。然而,這個過程不能被「壓縮」到軟體中,因為像細胞呼吸這樣的生物物理過程需要基於真實的物理分子。當然,這也不意味著意識需要“克雷布斯循環”,而是強調理解意識的過程中可能涉及類似的挑戰,即也許意識並不能從底層機制中被抽離出來。
然而,我們並不完全贊同意識根本無法由智慧系統產生的說法,但卻必須考慮意識與生命背後複雜的生物組織之間的相關性,捕捉意識本質的計算類型可能比我們目前理論所理解的要複雜得多(圖3)。對意識進行「活體組織檢查」並將其從組織中移除幾乎是不可能的。這一觀點與目前許多有關意識的理論相矛盾,這些理論認為意識可以在抽象的計算層面上產生。現在,這個假設需要根據現代人工智慧系統進行更新了:為了充分理解意識,我們不能忽視在生命系統中觀察到的跨尺度的相互依賴性和組織複雜性。
儘管人工智慧系統在網路計算層面模仿了它們的生物對應物,但在這些系統中,已經抽象化了生物過程中所有其他層面的處理,這些處理在大腦中與意識有著緊密的因果關係,因此,現有人工智慧系統可能已經抽象化了意識本身。這樣一來,LLM和未來的人工智慧系統可能將被困在無止境的模擬意識特徵,但卻沒有任何現象意識可言。如果意識的確與這些其他層次的處理有關,或者與它們在不同尺度之間的相互作用有關,那麼我們離機器產生意識的可能性還很遠。
總結
在這裡,我們從神經科學的角度對LLM和未來的人工智慧系統中意識的可能性進行了探討。儘管LLM頗具吸引力,但它們並不具有意識,並且不會在未來較短的時間內具有意識。
首先,我們說明了哺乳動物的環境(它們可以感知的外部世界的「一小部分」)與LLM高度貧乏和有限的環境之間的巨大差異。其次,我們認為,LLM的拓樸結構雖然非常複雜,但在經驗上與哺乳動物意識相關環路的神經生物學細節有很大不同,因此沒有充分的理由認為LLM能夠產生現象意識(圖1)。目前我們還不可能將意識從生物組織複雜性中抽像出來,這種組織複雜性是生命系統固有的,但顯然在人工智慧系統中卻不存在。總的來說,以上三個關鍵點使得LLM在目前的形式下不可能有意識。它們僅模仿了用來描述意識體驗豐富性的人類自然語言交流的特徵。
透過本文,我們希望所提出的觀點能產生一些正面的影響與思考(見尚未解決的追問),並且不僅代表一種反對意見。首先,目前對LLM的感知能力在倫理層面潛在的擔憂更多是假設的而非真實的。此外,我們相信,對LLM和哺乳動物大腦拓撲結構的異同的深入理解,能夠推進機器學習和神經科學的進步。我們也希望透過模仿大腦組織的特徵和學習簡單的分散式系統如何處理複雜的資訊流來推動機器學習和神經科學界的進展。基於這些原因,我們樂觀地認為,人工智慧研究人員和神經科學家之間未來的合作能夠促進對意識更加深入的理解。
尚未解決的追問:
1. LLM和人工智慧中的意識評估通常依賴基於語言的測試來檢測意識。是否有可能僅基於語言(即文本)來評估意識?是否有更進一步的評判特徵可以幫助判斷人工系統是否具有意識?
2. 哺乳動物意識的神經基礎與丘腦-皮質系統有關。如何在人工智慧中實現丘腦-皮質系統?哪些特定的功能和任務將受益於類似丘腦-皮質的系統?
3. 上升覺醒系統在生物體意識產生方面也起著至關重要的作用,其在神經動力學的塑造方面發揮複雜的、多方面的作用。人工智慧需要在多大程度上模仿這些不同的過程,才能獲得上升覺醒系統的計算優勢?
4. 生物細節可以增強人工智慧系統的能力嗎?除了丘腦-皮質系統外,樹突在本文討論的一些意識理論中起著關鍵作用。樹突只是增加生物神經網路計算複雜度/效率的一個因素,還是還有更多作用?
5. 生命系統的組織複雜性與意識有關嗎?生命系統由不同層次的處理過程組成,這些過程相互作用。生命系統的組織複雜性能否得到更完整詳細的解釋?是否需要新的數學框架來處理這樣的系統,以更多地闡明意識意識產生的生物過程?
6. 一些理論表明,意識和能動性是密不可分的。要理解意識是如何從生物活動中產生的,需要先理解能動性嗎?