《人類簡史》作者:人工智能可能滅絕人類我們可能還有幾年時間
《人類簡史》的作者尤瓦爾·赫拉利週二警告稱,人工智能是一種可能消滅人類的外來威脅:“它不是來自外太空,而是來自加州。”人工智能技術被廣泛譽為一場“革命”,但以色列歷史學家和哲學家赫拉利認為,這是一種可能導致人類滅絕的“外來物種”。
赫拉利週二在倫敦的一次活動上對觀眾說:“人工智能與我們在歷史上看到的任何其他發明,無論是核武器還是印刷機,都有著根本的不同。”
“這是歷史上第一個可以自己做決定的設備。原子彈不能做出決定。在廣島投下原子彈的決定是由一個人做出的。”赫拉利說,這種獨立思考能力帶來的風險是,超級智能機器最終可能會取代人類成為世界的主導力量。他警告稱:“我們可能在談論人類歷史的終結——人類統治時代的終結。很有可能在未來幾年內,它將消耗掉所有的人類文化,(我們自石器時代以來取得的一切成就),並開始萌芽一種來自外來智慧的新文化。”根據赫拉利的說法,這提出了一個問題,即技術不僅會對我們周圍的物質世界產生什麼影響,還會對心理學和宗教等事物產生什麼影響。他辯稱:“在某些方面,人工智能(比人類)更有創造力。最終,我們的創造力受到生物生物學的限制。而它是一種無機智能,真的很像外星智慧。 ”“如果我說外來物種將在五年內到來,也許他們會很好,也許他們會治愈癌症,但他們會奪走我們控制世界的能力,人們會感到害怕。“這就是我們所處的情況,但威脅不是來自外太空,而是來自加州。”OpenAI的生成式人工智能聊天機器人ChatGPT在過去一年中取得了驚人的增長,成為該領域重大投資的催化劑,大型科技公司也加入了開發世界上最尖端人工智能係統的競賽。赫拉利的著作考察了人類的過去和未來,但他認為,人工智能領域的發展速度“讓它變得如此可怕”。“如果你將其與生物進化進行比較,人工智能現在就像阿米巴變形蟲——在生物進化中,它們花了數十萬年的時間才變成恐龍。而有了人工智能,變形蟲可以在10到20年內變成霸王龍。問題的一部分是我們沒有時間去適應。人類是一種適應能力極強的生物……但這需要時間,而我們沒有那麼多時間。”人類的下一個“巨大而可怕的實驗”?赫拉利承認,之前的技術創新,如蒸汽機和飛機,都提出了類似的人類安全警告,“最終還可以”,但談到人工智能時,他堅稱,“最終還不夠好。”他說:“我們不擅長新技術,我們會犯大錯誤,我們會嘗試。”例如,在工業革命期間,人類“犯了一些可怕的錯誤”,他說:“我們花了一個世紀,一個半世紀,才把這些失敗的實驗弄對。”“也許這次我們逃不掉了。即使我們這樣做了,想想在這個過程中會有多少人的生命被摧毀。”“時間至關重要”儘管赫拉利對人工智能發出了可怕的警告,但他表示,我們仍有時間採取行動,防止最壞的預測成為現實。他說:“我們還有幾年,我不知道有多少年——5年、10年、30年——在人工智能把我們推到後座之前,我們仍然坐在駕駛座上。我們必須非常小心地利用這幾年。”他還敦促那些在人工智能領域工作的人考慮一下,在世界上釋放他們的創新是否真的符合地球的最佳利益。“我們不能只是停止技術的發展,但我們需要區分開發和部署,”他說,“僅僅因為你開發了它,並不意味著你必須部署它。”