人工智慧是否很快就會有意識?專家認為語言模型與人腦差異極大
人工智慧系統(如ChatGPT)的先進功能引發了關於其潛在意識的討論。然而,神經科學家賈安-阿魯(Jaan Aru)、馬修-拉卡姆(Matthew Larkum)和麥克-希恩(Mac Shine)認為,這些系統很可能是無意識的。他們的論點是基於人工智慧缺乏具身資訊、缺乏與哺乳動物意識相關的某些神經系統,以及生物體和人工智慧不同的演化路徑。生物實體意識的複雜性遠遠超過了目前的人工智慧模型。
人工智慧(AI)系統的日益複雜讓一些人猜測,這些系統可能很快就會擁有意識。然而,我們可能低估了人類意識背後的神經生物學機制。
現代人工智慧系統能夠做出許多驚人的行為。例如,當人們使用像ChatGPT 這樣的系統時,它們的反應(有時)非常像人類的智慧反應。當我們人類與ChatGPT 互動時,我們會有意識地感知語言模型生成的文本,例如,您目前正在這裡有意識地感知這段文字!
問題是,當我們提示時,語言模型是否也能感知到我們的文本?抑或它只是一具殭屍,依靠巧妙的模式匹配演算法工作?根據它產生的文本,很容易讓人相信系統可能是有意識的。不過,在這項新研究中,賈安-阿魯、馬修-拉庫姆和麥克-希恩從神經科學的角度回答了這個問題。
這三位作者都是神經科學家,他們認為,雖然ChatGPT 等系統的反應看似有意識,但很可能並非如此。首先,語言模型的輸入缺乏我們與周遭世界的感官接觸所特有的嵌入式資訊內容。其次,當今人工智慧演算法的架構缺乏丘腦皮質系統的關鍵特徵,而這些特徵與哺乳動物的有意識意識有關。
最後,導致有意識生物體出現的進化和發展軌跡,可以說與今天設想的人工智慧系統並不相似。生物體的存在取決於它們的行動,而它們的生存則與多層次的細胞、細胞間和生物體過程錯綜複雜地聯繫在一起,最終形成代理和意識。
描述大型語言模型基本架構的示意圖,哺乳動物大腦與大型語言模型之間的差異,左圖為大型語言模型的基本結構示意圖,它可以有幾十個甚至一百多個以前饋方式排列的解碼塊。右圖為丘腦皮質系統的啟發式地圖,該系統產生的複雜活動模式被認為是意識的基礎。圖片來源:Mac Shine、Jaan Aru
因此,儘管我們很想假設ChatGPT 和類似系統可能有意識,但這將嚴重低估我們大腦中產生意識的神經機制的複雜性。對於意識如何在我們的大腦中產生,研究人員尚未達成共識。我們所知道的,以及這篇新論文所指出的,是這種機制很可能比目前語言模型的基礎機制複雜得多。
例如,正如這篇論文所指出的,真實的神經元與人工神經網路中的神經元並不相同。生物神經元是真實的物理實體,可以生長並改變形狀,而大型語言模型中的神經元只是毫無意義的程式碼片段。我們對意識的理解還有很長的路要走,因此,對有意識的機器的理解還有很長的路要走。