越來越多人認為像ChatGPT這樣的人工智慧聊天機器人是有意識的
像ChatGPT 這樣先進的生成式人工智慧聊天機器人是否具有某種意識或自我意識,能夠像人類一樣體驗情感和記憶?當然不是。然而,大多數人認為這些AI機器人確實具有一定程度的意識,而這種信念可能會影響使用者與它們互動的方式。
過去幾年,人工智慧語言生成工具取得了令人難以置信的進步。根據滑鐵盧大學(University of Waterloo)的一項新研究,該軟體類似人類的對話風格使超過三分之二(67%)的受訪者認為LLM 具有一定程度的意識。
這項調查詢問了300 名美國人,他們是否認為ChatGPT 具有意識能力以及製定計劃、推理、感受情緒等能力。他們也被問及使用OpenAI 產品的頻率。
參與者必須在1 到100 的範圍內對ChatGPT 的反應進行評分,100 表示絕對相信ChatGPT 正在經歷意識,1 表示絕對相信ChatGPT 沒有經歷意識。
結果顯示,使用ChatGPT 越多的人就越有可能相信它具有某種形式的意識。
“這些結果證明了語言的力量,”滑鐵盧藝術學院心理學教授克拉拉-科隆巴托博士說,”因為僅憑一段對話就能讓我們認為,一個在外觀和工作方式上與我們截然不同的人也會有思想。
這項發表在《意識神經科學》(Neuroscience of Consciousness)雜誌上的研究指出,這種信念可能會影響與人工智慧工具互動的人。一方面,它可以加強社會紐帶,增加信任。但它也可能導致人們對聊天機器人產生情感依賴,減少人際互動,並導致人們過度依賴人工智慧來做出關鍵決策–自從ChatGPT 被推向大眾以來,人們就一直對此表示擔憂。
科隆巴托解釋說:”雖然大多數專家否認目前的人工智慧可能有意識,但我們的研究表明,對大多數普通大眾來說,人工智慧有意識已經成為現實。”
該研究認為,儘管許多人並不像科學家或研究人員那樣理解意識,但在設計和監管人工智慧以確保安全使用時,應該考慮到他們認為這些AI在某種程度上是有知覺的事實。
關於人工智慧表現出自我意識的討論已存在多年。最著名的例子之一是前Google軟體工程師布萊克-勒莫因(Blake Lemoine),他在公開聲稱Google的LaMDA(對話應用語言模型)聊天機器人開發系統已經具有感知能力後,被公司解僱。
詢問ChatGPT 是否有意識或有知覺,得到的答案如下:”我沒有意識或知覺。我沒有思想、感情或意識。我的目的是根據數據模式提供幫助和信息,但我的回答背後沒有意識。也許人們認為聊天機器人在說謊。