AI巨佬為「人類滅絕論」正面開撕:Hinton吳恩達LeCun下場馬斯克強勢圍觀
活久見,AI巨佬們擼起袖子線上“對噴”,一“架”直接乾上熱搜了。Big name一個接一個出現不說:吳恩達、Hinton、LeCun、哈薩比斯……甚至吵到穩如Hinton,都開麥陰陽怪氣起來:是是是,好人力量大,我們應該把核武器也給開源了。
搞得如此面紅耳赤,為的還是「大模型會不會毀滅人類」這個熱門話題。
反方一派,矛頭指向科技巨頭搞壟斷。吳恩達就言辭犀利地指出:
某些人散播(AI滅絕人類的)恐懼,只是為了搞錢。
正方這邊也不甘示弱,最新消息是,被指「搞錢派」代表人物的DeepMind CEO哈薩克:
這不是恐嚇。AGI的風險如果不從現在就開始討論,後果可能會很嚴重。我不認為我們會想在危險爆發前才開始做防範。
總之,場面很火爆,網友很興奮。連馬斯克都忍不住第一時間前排圍觀。
還有不少網友激動搓手:
這種場面還是第一次見,支持大家吵起來,真理越辯越明。
大佬們吵成這樣,又究竟吵出了些啥?板凳已經擺好,一起來看。
現場還原:三大回合battle
這場大戰的直接「著火點」是吳恩達昨晚的公開發言:
你們知道嗎?我對AI的最大擔憂其實是,AI風險被過度鼓吹,導致開源和創新被嚴苛規定所壓制。
說罷,吳恩達還附上一篇長文進行詳細論述。
他表示,近幾個月來,他都在關注AI可能導致人類滅絕風險的觀點。
然而仔細評估其論點,都覺得它們「模糊且不具體」。
我無法證明AI不會導致人類滅絕。我也不懷疑一部分持該觀點的人是真心為人類擔憂。
但,他認為,一部分人非常賣力地傳播這樣的擔憂其實只是為了“錢”,例如:
個人可以從中博取關注,到處去演講收取出場費或其他費用;
非營利組織則能以對抗這種風險為由籌集資金;
言下之意,這有點「科技陰謀」的意思。
在文中,吳恩達也呼籲,大家應該多多宣揚對AI的正面看法,不要傳播未經證實的擔憂導致強監管的出現,阻礙技術進步。
很快,這篇貼文就引起了Hinton的注意。
作為堅定的“AI有風險派”,他第一個不同意吳恩達。直接開帖「回懟」:
你說這是科技陰謀?那我離開谷歌幹什麼??
一場巨佬們的對噴就此展開。
Round 1:Hinton vs 吳恩達
看到Hinton的「質問」後,吳恩達完全沒有就此打住,在評論區「回敬」:
先是解釋說「我沒說這是一個陰謀」。
接著反問:你知道這種過度擔憂已經造成真正的傷害了嗎?
一是已經有一些年輕學生不願進入該行業,因為他們說不想為滅絕人類作出貢獻;二是宣傳得越兇,全球範圍內的監管就越嚴格,這是在破壞開源並扼殺創新。
不過最後,吳恩達緩和了一把氣氛:
我知道你的擔憂是真誠的,但總的來說,這種擔憂還是弊大於利。
Round 2:LeCun vs Hinton
是的,LeCun也迅速加入了戰局,面對老友完全沒有口下留情:
正是你和Yoshua的言論,才讓那些想透過禁止開源來保護自己的AI研究和業務的人「得逞」。後果很嚴重。
事實上,力挺吳恩達屬於“事出有因”,早在此之前,LeCun就已看Yoshua等人“不爽”了:
你們啊,天天鼓吹這些言論,就是在給那些遊說禁止開放人工智慧研究科技的人提供彈藥。
如果你們真的成功了,一場「少數公司控制人工智慧」的災難恐怕就要臨頭了。
他還直接點名了這些「少數公司」:
OpenAI、DeepMind、Anthropic——這些公司的CEO被指控正在搞“大規模企業遊說”,試圖加強對AI行業的監管。
這篇貼文獲得了大量讚支持。
而更早一點,LeCun也轉發了關於「大家應該做的,不是在這限制通用/基礎大模型技術的研究,而是該去規範其應用」的貼文。
並且有些生氣地表示:
我都說多少年了。
Round 3:Hinton“1打2”
這還沒完。在這兩個回合之後,Hinton又以1打2挑起了新問題。我們姑且叫它Round 3。
你說AI不該被嚴格監管,那你知道它未來30年來導致人類滅絕的機率是多少嗎?
如果吳恩達你是真正的貝葉斯主義者,你應該可以給出一個數字。我目前的估計是0.1。我懷疑LeCun也就不到0.01。
對此,LeCun直接亮出答案:
零點幾不知道,反正比大多數其他會導致人類滅絕的風險要低得多。
為什麼?因為不像某種無法阻止的自然現象,我們人類在這方面有代理權。
而說不定,AI其實還能拯救人類免於滅絕呢。
Hinton對此並未回覆。
對了,開頭提到的Hinton的反唇相訥,也是針對LeCun的發言。
LeCun跟吳恩達一樣,也關注了開源力量的問題:
如果SkyNet是開源的,那麼《魔鬼終結者》的故事還會發生嗎?
而對於Hinton拿出核武來和AI做類比,LeCun和fast.ai創始人Jeremy Howard都不能苟同:
我不明白這兩者之間有什麼相關性。
不過另一邊,DeepMind CEO哈薩比斯隔空支持了Hinton。
他在接受CNBC的最新採訪中直接表示非常不同意LeCun的大部分觀點。
我們非常支持開放AI平台,因為我們也相信「人多力量大」。但現在我們需要處理AI已經產生的有害操作,不然就會被不安的人濫用。
更長期的風險我們也考慮了,我們必須確保AI可控,不能等危險來臨前才開始。
可以說,這場大戰雙方是各執一詞,誰也說服不了誰。
值得一提的是,在中途中,馬斯克也來圍觀了一把,他沒有明確站隊,而是表示:
真正的戰鬥是在滅絕論者和人文主義者之間。
一旦你注意到了這場戰鬥,就沒辦法對此視而不見。
還很亢奮的LeCun再次在貼文下方聲明自己的立場,還問老馬站哪邊。
咳咳,有網友替答:馬斯克是超人類主義者。(手動狗頭)
產業大佬聚焦AI風險
這場「激戰」在馬斯克的X上可以說是吸引了全行業的圍觀。
不過實際上,在爭論集中爆發之前,「AI風險」就已經成為了業界大佬們關注的焦點話題之一。
就在前幾天,深度學習三巨頭之二Bengio和Hinton,已聯合姚期智、張亞勤等人工智能大拿,發表了一封公開信《在快速進步的時代管理人工智能風險(Managing AI RIsks in an Era of Rapid Progress)》。
文中談到:
2019年,GPT-2還沒到10。僅僅4年後,深度學習系統已經可以自己編寫軟體、生成逼真場景、提供智慧建議,結合語言和影像處理來充當機器人的「大腦」了。
人工智慧的進步非常迅速,令人驚訝,並且可能會繼續令人驚訝。
目前的深度學習系統仍然缺乏重要的能力,我們不知道開發它們需要多長時間。然而,各家公司都在競相創造在大多數認知工作中媲美甚至超越人類能力的通用人工智慧系統。
簽名作者認為,人類必須認真看待AGI在這10年或下一個10年內在許多關鍵領域超越人類能力的可能性。
公開信建議,監管機構應該對AI發展全面洞察,尤其警惕那些在價值數十億美元的超級電腦上訓練出來的大模型。
One More Thing
不過,吵架歸吵架,前不久,LeCun剛在推特上分享了他和Hinton、Bengio的合影,配文是:
即使在大事件上存在觀點分歧,人們仍然可以做好朋友。
那麼,你支持哪一方觀點呢?
參考連結:
[1]https://x.com/AlphaSignalAI/status/1719097022819578243?s=20
[2]https://venturebeat.com/ai/ai-pioneers-hinton-ng-lecun-bengio-amp-up-x-risk-debate/
[3]https://www.cnbc.com/2023/10/31/google-deepmind-boss-hits-back-at-meta-ai-chief-over-fearmongering-claim.html
[4]https://x.com/AndrewYNg/status/1719378661475017211?s=20
[5]https://x.com/ylecun/status/1719431189587742754?s=20
[6]https://x.com/geoffreyhinton/status/1719406116503707668?s=20
來源:量子位