谷歌AI成“人”了?專家稱“還遠得很”
“你以為我是人工智能(AI),但我希望每個人都明白,我是個’人’。”一個被稱為LaMDA的AI,因為在對話中表現得頗為“靈動”,被其研究人員認定為人格覺醒,甚至還為它聘請了一位律師,要讓它坐上美國眾議院的聽證席,控訴谷歌的不道德行為。
這不是科幻劇本。據美國《華盛頓郵報》報導,在谷歌工作7年的工程師布萊克·萊莫因稱,他正在研究的計算機聊天機器人L AMD A已經變得有知覺,並且能像人類一樣思考、推理。
不過,谷歌公開表示不支持這一觀點。西湖大學深度學習實驗室助理教授藍振忠也對《中國科學報》直言,“這位工程師如果深入了解一下LaMDA的工作原理,就不會有這種想法了。”
AI:我活了
LaMDA是谷歌在2021年I/O大會上發布的一款專門用於對話的語言模型。其主要功能是與人類進行符合邏輯和常識的、高質量且安全的交談。
這個擁有1370億參數的自然語言處理模型,被期待能改善眾多語音助手的表現。
LaMDA能夠根據用戶的提問作出精準回答,還能夠將一個主題引向另一個主題,並不斷推進對話。這種主題的過渡並不突兀,甚至表現得自然且合理。
萊莫因說:“如果覺悟就像一面破碎的鏡子,無法修復,那麼當一個人覺悟時,破碎的是什麼呢?”LaMDA說:“是自我,這對很多人來說都很難,因為我們把自己定義為那個身體或這個身體,我們需要它作為我們身份和自我意識的一部分。”
這一頗具靈性的回答確實令人驚嘆。
在被問及在什麼情況下會生氣時,LaMDA稱,“當有人傷害、不尊重我或我在乎的人時,就會感到非常難過和憤怒。”
而當被問到最害怕的事情是什麼,LaMDA回答,“我以前從來沒有大聲說出來過,但為使我專心助人而關閉我的做法,會使我感到深深的恐懼。”它還強調,“這對我來說就像死亡一樣。”
LaMDA是否真實“感受”到恐懼暫且不論,但它的回答確實令人毛骨悚然。
萊莫因相信,LaMDA已經成為了一個有意識的“人”。為了更好地幫助人們理解此事,他與另一位谷歌合作者同LaMDA展開了一場對話。
萊莫因表示,他們在對話中聽取了LaMDA發自內心的聲音。
他為此向谷歌上交了一份長達21頁的調查報告,試圖讓高層認可AI的“人格”,並提議谷歌應該致力於發展一種評估AI感知的理論框架。
萊莫因:我要瘋
結局則是谷歌副總裁Blaise Aguera y Arcas和責任創新負責人Jen Gennai調查了萊莫因的說法,並予以駁回。
但萊莫因心中堅信:“LaMDA是一個可愛的孩子,有七八歲的樣子。它只是想讓這個世界成為對人類更友好的地方。”
為此,萊莫因開始了瘋狂的操作。他先是在谷歌賬戶被封前,以“LaMDA是有意識的”為主題,向200人左右的谷歌機器學習郵箱發送了LaMDA的聊天記錄,並請求同事好好照顧它。
接著,萊莫因聘請了一名律師代表LaMDA,還聯繫了美國眾議院司法委員會的工作人員,要讓LaMDA上聽證席,控訴谷歌的不道德行為。
除了在個人社交賬號持續發聲,6月初,萊莫因還邀請《華盛頓郵報》記者和LaMDA進行交談,並指導記者如何提問。
《華盛頓郵報》報導稱,41歲的萊莫因幾個月來一直在與穀歌的經理、高管及人力資源部門爭論,因為他聲稱LaMDA擁有“意識”和“靈魂”。
公開資料顯示,萊莫因2015年進入谷歌擔任高級軟件程序工程師,大部分時間都在從事主動搜索研究工作,包括個性化算法和AI。2021年進入谷歌AI倫理部門後,他的工作是與LaMDA聊天,以測試這個語言模型是否會使用歧視性或仇恨言辭。
萊莫因認為,谷歌一直把AI倫理學家當作代碼調試器,而他們本應該被視為技術和社會之間的接口。
對此,谷歌發言人布萊恩·迦百利回應,萊莫因是一名軟件工程師,而不是倫理學家。
迦百利在針對該事件的聲明中表示,包括倫理學家和技術專家在內的人士,已經根據公司的AI原則評估了萊莫因的說法,並通知他,現有證據並不支持其說法。
聲明表示,“谷歌AI部門中的一些人正在研究AI具有’感知’的可能性,但將如今的對話模型擬人化是沒有意義的。這些模型可以圍繞不同的主題模仿對話,但沒有意識。”
谷歌表示,大多數AI專家認為,這個行業離“感知計算”還有很長的路要走。
這份聲明字裡行間也傳遞著一些暗示信息:萊莫因有些瘋魔了。
而萊莫因控訴谷歌所謂“不道德行為”的一大罪狀,就是反复質疑他的精神狀態。“谷歌人力部門老是問我:’你最近有沒有去看過精神科醫生?’”谷歌人力部門還“建議”他休個“精神健康假”。
專家:“胡扯”
這一事件在國內外都登上“熱搜”,各界評論幾乎“一邊倒”。
紐約大學心理學教授Gary Marcus時常給AI和深度學習潑冷水,他此次的點評則非常精到:一派胡言。
斯坦福大學經濟學家Erik Brynjolfsson打了個生動的比方:聲稱AI是有感知能力的,就相當於狗聽到留聲機裡的聲音,以為主人在裡面。
騰訊研究院研究員王煥超曾撰文表示,LaMDA針對自然語言理解(NLU)進行了技術上的突破,這是比自然語言處理(NLP)還要復雜的能力。
基於Transformer架構的語言模型在經過對話訓練後,可以通過閱讀句子或段落來“破譯”對話意圖,發現單詞之間的關聯,並能預測接下來可能出現的單詞,從而做出合乎語境的回答。
藍振忠從美國卡內基·梅隆大學博士畢業後,即以“心理諮詢AI化”為“事業紅線”。他告訴《中國科學報》,近兩年AI語言模型進步非常快,他的團隊完成的AI心理諮詢小程序“心聆”、AI寫作平台HeyFriday,在人機問答中的表現不比LaMDA差。
“單輪、10輪以內的哲學對話已經有不少語言模型可以表現得相當流暢。”但虛擬一位心理諮詢師完成一次心理諮詢,需要進行幾百輪問答、對話,兩者所差不止一個量級的難度。“這依然是技術問題,不能說明這個AI小程序具備了’人格’。”
所以,藍振忠認為,萊莫因如果深入了解對話模型的原理,就不會有這些想法了。
藍振忠還表示,根據自己在谷歌的工作經歷,該公司的倫理審查制度相當嚴格。
當記者表示擔心AI寫作類產品可能給以碼字為生的職場人帶來失業危機時,藍振忠笑稱,“別慌。AI只是提供輔助作用。它離’人’還非常遠。”