矽谷熱辯:AI是否會毀滅人類?
隨著生成式人工智能等新技術成為科技界新熱潮,關於人工智能是否會毀滅人類的爭論愈演愈烈。有知名科技領袖警告稱,人工智能可能會接管整個世界。其他研究人員和高管則表示,這種說法是科幻小說。在上週召開的美國國會聽證會上,人工智能初創企業OpenAI首席執行官薩姆·奧爾特曼(Sam Altman)明確提醒大家,該公司公開的這項技術存在安全風險。
奧爾特曼警告說,ChatGPT聊天機器人等人工智能技術可能會引發虛假信息和惡意操縱等問題,並呼籲進行監管。
他表示,人工智能可能“對世界造成嚴重傷害”。
奧爾特曼在美國國會作證之際,關於人工智能是否會主宰世界的辯論正轉向主流,整個矽谷和致力於推廣人工智能技術的人士意見不一、分歧也越來越大。
以前曾有個別人認為,機器的智力水平可能會突然超越人類,並決定毀滅人類,現在這種邊緣型想法正在獲得越來越多人的支持。一些權威科學家甚至都認為計算機學會超越人類並能控制人的時間將有所縮短。
但許多研究人員和工程師表示,雖然不少人擔心現實中出現像電影《終結者》中的天網那種殺手型人工智能,但這種擔憂並不是基於合乎邏輯的好科學。相反其分散了人們對這種技術已經造成現實問題的注意力,包括奧爾特曼在證詞中所描述的問題。現在的人工智能技術正在混淆版權,加劇人們對數字隱私和監控的擔憂,還可能被用來提高黑客突破網絡防禦的能力。
谷歌、微軟以及OpenAI都已經公開發布突破性的人工智能技術。這些技術可以與用戶進行複雜對話,並根據簡單文本提示生成圖像。關於邪惡人工智能的爭論已經升溫。
“這不是科幻小說,”人工智能教父、谷歌前員工杰弗裡·辛頓(Geoffrey Hinton)說。辛頓表示,比人類更聰明的人工智能可能會在5到20年內出現,而他之前的估計是30到100年。
“就好像外星人已經登陸地球或即將登陸,”他說。“我們真的無法接受,因為它們講話流利,它們很有用,它們會寫詩,還會回复無聊的信。但它們真的是外星人。”
儘管如此,在大型科技公司內部,許多與這項技術有密切關係的工程師並不認為人工智能取代人類是大家現在需要擔心的事情。
人工智能初創公司Cohere旗下研究實驗室Cohere for AI主管、前谷歌研究員薩拉·胡克(Sara Hooker)說:“在積極從事這一學科的研究人員中,關注當前現實風險的人遠遠多於關注人類是否有生存風險的人。”
目前的現實風險很多,比如發布受過不良內容訓練的機器人會加深偏見和歧視等問題;人工智能的絕大多數訓練數據用的都是英語,主要來自北美或歐洲,這可能會使互聯網更加偏離大多數人的語言和文化;這些機器人還經常編造虛假信息,將其偽裝成事實;在某些情況下,它們甚至會陷入攻擊用戶的無限循環對話。此外,人們也不清楚這項技術帶來的連鎖反應,所有行業都在為人工智能可能帶來的顛覆或變革做準備,甚至律師或醫生等高薪工作也會被取代。
也有人認為,未來人工智能可能會傷害人類,甚至以某種方式控制整個社會。雖然事關人類生存的風險似乎更加嚴峻,但許多人認為,這種風險更難量化,也不那麼具體。
“有一群人認為,這些只是算法。它們只是在重複網上看到的內容。”今年4月份谷歌首席執行官桑德爾·皮查伊(Sundar Pichai)在接受采訪時表示:“還有一種觀點認為,這些算法正湧現出新特性,具有創造力、推理能力和規劃能力。”“我們需要審慎對待這件事。”
這場爭論源於過去10年間計算機科學領域機器學習技術的不斷突破。機器學習創造出相關軟件和技術,可以在沒有人類明確指令的情況下,從大量數據中提取出新穎見解。這種技術在社交媒體算法、搜索引擎和圖像識別程序等各種應用中無處不在。
去年,OpenAI和其他幾家小公司開始陸續發布使用新機器學習技術的工具:生成式人工智能。這種所謂的大語言模型用網上抓取的上萬億張照片和句子進行自我訓練後,可以根據簡單提示生成圖像和文本,與用戶開展複雜對話,並編寫計算機代碼。
未來生命研究所(Future of Life Institute)執行董事安東尼·阿吉雷(Anthony Aguirre)說,大公司正在競相開發越來越智能的機器,幾乎沒有任何監管。未來生命研究所成立於2014年,目的是研究社會存在的風險。在特斯拉首席執行官埃隆·馬斯克(Elon Musk)的資助下,研究所於2015年開始研究人工智能毀滅人類的可能性。
阿吉雷說,如果人工智能獲得比人類更好的推理能力,它們就會試圖實現自我控制。這是值得人們擔心的,就像現在存在的現實問題一樣。
他說:“如何約束它們不偏離軌道,將變得越來越複雜。”“不少科幻小說已經說得很具體了。”
今年3月份,阿吉雷幫助撰寫了一封公開信,呼籲暫停訓練新的人工智能模型6個月時間。這封公開信共獲得27000位人士簽名支持,獲得2018年計算機科學最高獎項的資深人工智能研究員約書亞·本吉奧(Yoshua Bengio)和最具影響力的人工智能初創企業之一首席執行官埃馬德·莫斯塔克(Emad Mostaque)都位列其中。
馬斯克無疑是其中最引人注目的。他曾幫助創建OpenAI,現在自己也在忙著組建人工智能公司,最近投資了訓練人工智能模型所需的昂貴計算機設備。
多年來馬斯克一直認為,人類應該對發展超級人工智能的後果倍加小心。在上週特斯拉年度股東大會期間接受采訪時,馬斯克表示,自己當初之所以資助OpenAI,是因為他覺得谷歌聯合創始人拉里·佩奇(Larry Page)對人工智能的威脅“漫不經心”。
美版知乎Quora也在開發自家人工智能模型。公司首席執行官亞當·德安吉洛(Adam D’angelo)沒有在公開信上簽名。他在談到這封公開信時說,“人們提出這項建議時有各自不同的動機。”
OpenAI首席執行官奧爾特曼也不認可公開信內容。他表示,自己贊同這封公開信的部分內容,但總體上缺乏“技術細節”,並不是監管人工智能的正確方式。奧爾特曼在上週二舉行的人工智能聽證會上表示,他公司的做法是儘早向公眾推出人工智能工具,以便在技術變得更強大之前發現和解決問題。
但科技界有關殺手型機器人的爭論越來越多。其中一些最嚴厲的批評來自多年來一直研究這項技術缺陷的研究人員。
2020年,谷歌研究人員蒂姆尼特·格布魯(Timnit Gebru)和瑪格麗特·米切爾(Margaret Mitchell)與華盛頓大學學者艾米麗·M·本德(Emily M. Bender)和安吉麗娜·麥克米蘭-梅傑(Angelina McMillan-Major)合作撰寫了一篇論文。他們認為,大語言模型模仿人類的能力不斷增強,這加劇了人們會認為它們是有感情的風險。
相反,他們認為這些模型應該被理解為“隨機的鸚鵡學舌”,或者說僅僅是非常擅長純粹根據概率預測句子接下來會出現哪一個單詞,而不需要理解自己在說什麼。其他批評者稱大語言模型是“自動補全”或“知識灌腸”。
他們詳細記錄了大語言模型如何照本宣科地生成性別歧視等不良內容。格布魯說,這篇論文曾被谷歌壓下來了。在自己堅持公開發表這篇文章後,谷歌解雇了她。幾個月後,公司又解雇了米切爾。
這篇論文的四位合作者也寫了一封信,以此回應馬斯克等人簽名的公開信。
他們說:“用一個幻想中的人工智能烏托邦或世界末日來分散我們的注意力很危險。”“相反,我們應該關注那些開發公司非常真實、非常現實的剝削行為,這些公司正在迅速集中力量,加劇社會不平等。”
谷歌當時拒絕就格布魯被解僱一事發表評論,但表示仍有許多研究人員在研究負責任和合乎道德的人工智能。
“毫無疑問,現代人工智能是強大的,但這並不意味著它們對人類生存的威脅迫在眉睫,”Cohere公司人工智能研究主管胡克說。
目前,關於人工智能擺脫人類控制的大部分討論都集中在其如何迅速克服自身的限制上,就像《終結者》中的天網一樣。
胡克說:“大多數技術和技術中存在的風險都是逐步變化的。”“目前存在的技術限制加劇了大多數風險。”
去年,谷歌解雇了人工智能研究員布萊克·萊蒙(Blake Lemoine)。他在接受采訪時曾表示,自己堅信谷歌的L AMD A人工智能模型具有感知能力。當時,萊蒙遭到了業內許多人的嚴厲斥責。但一年後,科技界也有不少人開始接受他的觀點。
前谷歌研究員辛頓說,直到最近使用了最新的人工智能模型之後,自己改變了對這項技術潛在危險的既定看法。辛頓向計算機程序提出一些複雜的問題,在他看來,這些問題需要人工智能模型能大致理解他的請求,而不僅僅是根據訓練數據預測出可能的答案。
今年3月份,微軟研究人員表示,在研究OpenAI的最新模型GPT4時,他們觀察到了“通用人工智能的火花”,其指的就是能夠像人類一樣獨立思考的人工智能。
微軟已經花了數十億美元與OpenAI合作開發必應聊天機器人。質疑者認為,微軟正在圍繞人工智能技術打造自己的公眾形象。人們總認為這種技術比實際情況更先進,微軟可以從中獲益良多。
微軟研究人員在論文中認為,這項技術僅僅基於所訓練的文本內容,就已經發展出對世界空間和視覺的理解。GPT4可以自動畫出獨角獸,並描述如何將包括雞蛋在內的隨機物體堆疊在一起,讓雞蛋不會破碎。
微軟研究團隊寫道:“除了掌握語言之外,GPT-4還可以解決涉及數學、編程、視覺、醫學、法律、心理學等領域的各種複雜新問題,而且不需要任何特殊提示。”他們總結說,人工智能在許多領域的能力與人類相當。
不過其中一位研究人員承認,儘管人工智能研究人員曾嘗試制定量化標準來評估機器的智能程度,但如何定義“智能”依舊非常棘手。
他說,“它們都存在問題或有爭議。”