專家答疑:為什麼ChatGPT不是真正的”智能”?因為它不關心我們所處的世界
一篇新論文認為,從ChatGPT 等系統中看到的人工智慧,由於缺乏體現和理解,與人類智慧有著本質差異。這種差異突顯,人工智慧並不與人類一樣關注這個世界,也不與這個世界建立聯繫。
加州大學的安東尼-切梅羅(Anthony Chemero)最近發表了一篇論文,解釋了與人類思維相對的人工智慧思維。
人工智慧的興起引起了技術高層、政府官員和一般大眾的不同反應。許多人對ChatGPT 等人工智慧技術充滿熱情,認為它們是有益的工具,有能力徹底改變社會。
然而,也有一些人對此表示擔憂,他們擔心任何被稱為”智能”的技術都可能擁有超越人類控制和支配的能力。
辛辛那提大學文理學院哲學和心理學教授安東尼-切梅羅認為,語言學混淆了人們對人工智慧的理解: 雖然人工智慧確實具有智能,但它不可能像人類那樣具有智能,即使”它可以像它的開發者一樣撒謊和胡說八道”。
Anthony Chemero,辛辛那提大學哲學與心理學傑出研究教授。圖片來源:Andrew Higley/UC Marketing + Brand
根據我們日常對這個詞的用法,人工智慧肯定看起來相當聰明,多年來市場上也一直存在著所謂智慧型運算設備,切梅洛在他合著的《自然-人類行為》(Nature Human Behaviour)雜誌上發表的一篇論文中解釋。
人工智慧的特性和局限性
首先,論文指出,ChatGPT 和其他人工智慧系統都是大型語言模型(LLM),是在從網路上挖掘的大量資料基礎上訓練出來的,其中許多資料都與發布資料的人有相同的偏見。
“LLM生成的文本令人印象深刻,但往往是無中生有,”他說。”它們學會了產生符合語法的句子,但需要比人類多得多的訓練。它們實際上並不知道自己說的話是什麼意思,」他說。”LLMs不同於人類認知,因為它們不是具身的。”
製造LLMs 的人把它們胡編亂造的行為稱為”幻覺”;不過切梅羅說,”把它稱為’胡說八道’會更好”,因為LLMs 只是通過重複添加統計上最有可能出現的下一個字來造句–它們不知道也不關心自己說的話是否真實。
因此,只要稍加慫恿,就能讓人工智慧工具說出”帶有種族主義、性別歧視和其他偏見的下流的話”。
智能中的人的因素
切梅羅的論文旨在強調,LLMs 並不像人類那樣具有智能,因為人類是具身的: 活生生的人總是被其他人類以及物質和文化環境所包圍。
“這讓我們關心自己的生存和我們生活的世界。”他指出,LLMs 並不真正處於這個世界中,也不關心任何事情。
主要的啟示是,LLMs不像人類那麼聰明,因為它們”根本不在乎”,Chemero說,”事情對我們來說很重要。我們致力於生存。我們關心我們生活的世界。”