AI大佬LeCun連續暴走從馬斯克到OpenAI全被懟了個遍
馬斯克旗下的人工智慧新創公司xAI宣布完成B輪60億美元融資。主要的投資者包括Valor Equity Partners、Vy Capital、Andreessen Horowitz、紅杉資本等。 xAI2023年7月成立,不到一年估價已達240億美金,是OpenAI(800億美金)三分之一。
融資總額也僅次於OpenAI和Anthropic,正式跨入大模型第一梯隊。 xAI目前已經發布了Grok1(已開源),Grok-1.5(長上下文理解和高級推理能力)Grok-1.5V(xAI首款多模態大模型)。
另外,馬斯克也計畫在2025年秋天建造一座「算力超級工廠」為xAI提供算力支持,預計將使用10萬塊英偉達H100 GPU。
但馬斯克的風頭很快就被一個人「搶走」。這人就是機器學習之父、圖靈獎得主、Meta首席人工智慧科學家Yann LeCun。
在xAI融資消息揭露之後,馬斯克順勢在X上發布了一條xAI招募技術人員的推文:「如果你相信我們的使命是理解宇宙,並且需要最嚴格地追求真理,不顧及受歡迎或政治正確性,那麼請加入xAI。
然後Yann LeCun就出來拆台了,語氣毫不客氣:
他先是迅速回應了馬斯克的招募貼文:「如果你能忍受這樣的老闆,請加入xAI:聲稱你正在研究的東西明年就能解決(毫無壓力)。聲稱你正在研究的東西會毀滅所有人,必須停止或暫停(哇,6個月的假期!)。
LeCun的評論是在諷刺馬斯克先前的言論。今年四月份,馬斯克聲稱通用人工智慧將在明年到來,以及馬斯克上週在「歐洲科技創新展覽會」上重申的這一預測,並認為AI有10-20%的可能性會摧毀人類的言論。
而「六個月的休假」指的是馬斯克等人曾在去年3月發布要求暫停AI開發6個月的聯名信說。 Lecun在當時對此表示反對:「今年是1440年,天主教會呼籲暫停使用印刷機和活字機6個月。想像一下,如果平民獲得書籍,會發生什麼事?他們可以自己閱讀聖經,社會就會被摧毀。
最後,這位「AI教父」也諷刺了馬斯克在X平台上分享未經證實的言論行為。
在評論區馬斯克和LeCun繼續“對線”,雙語詞都相當激烈:
先是網友問LeCun為什麼不創辦自己的AI公司,而是留在Meta還噴別人。
LeCun回覆說我是科學家,不是商業或產品領域的人士。
馬斯克靈魂拷問:那過去五年你在「科學領域」都做了啥?
LeCun說自己「發了80篇Paper」還帶Scholar主頁。
馬斯克繼續回懟:“這算啥,你太鬆懈了,你得支棱起來啊。”
LeCun也不示弱:“說的你好像是我老闆。”
LeCun也反駁了那些輕視學術論文觀點,作為“卷積網路之父”,他舉例說明卷積神經網路(ConvNets)這一在1989年由學術論文引入的技術,已經成為當今幾乎所有駕駛輔助系統的核心組成部分。
他進一步強調,科技奇蹟並不是憑空出現的,而是建立在多年甚至數十年的科學研究基礎上的。科學研究的想法和成果透過技術論文的形式被分享出來。沒有這種科學資訊的分享,技術進步將會大幅放緩。
在AI監管問題上,LeCun和馬斯克的觀點也不一致,前者一直反對過度監管AI,主張AI的開放性和共享性,反對過度的監管限制,兩人這次也在這個話題上再次交鋒。
LeCun在X上表示目前無需過度擔憂AI風險問題,進行監管也為時過早。
馬斯克回覆:準備好被監管吧。還配上了一個笑哭的表情。 LeCun則陰陽了馬斯克一句:你對「不要訓練超過10^26flops的模型」感到高興嗎?
這是指拜登去年10月簽署的關於人工智慧的行政命令,要求使用具有10^26 FLOPS能力的模型的公司向美國政府報告基礎模型訓練運行和部署的計劃,而馬斯克一直在積極呼籲要立法人工智慧監管。
句句紮心,LeCun簡直成了矽谷自己的魯迅。
Lecun:AI末日論者都別跑
而這也不是這位矽谷魯迅第一次在網路上和人針鋒相對。
他時常因其直言不諱的風格在網上引發了討論和爭議,尤其是關於AI安全。 LeCun對AI末日論持有明確的反對態度,並且對開源和人工智慧的未來持樂觀態度。
LeCun多次在公開場合和訪談中表示,AI毀滅人類的機率為零,認為AI 末日論是無稽之談。而LeCun似乎會主動找機會,「噴」任何持AI末日論觀點的人。
在Geoffrey Hinton攜手一眾大神關於AGI風險治理的聲明,Lecun沒有署名,並且直接在X上點名了Sam Altman和DeepMind的Hassabis等人,認為他們試圖通過遊說監管來鞏固自己的行業地位,阻礙開放AI推進。
在最近一段時間熱議的OpenAI超級對齊團隊人員離職,引發對AGI安全問題的隱憂的事件中,LeCun也沒有缺席。
先是OpenAI首席科學家兼聯合創始人Ilya Sutskever在宣布離職,同一天,「超級對齊」團隊的另一名負責人Jan Leike也宣布離開了OpenAI,並表示OpenAI在過去的幾年里安全文化和流程被拋到了一邊,讓位給打造產品,OpenAI必須成為一家安全第一的AGI公司。
馬斯克隨後進補了一刀:言下之意就是說安全並不是OpenAI的首要任務。
LeCun也再次出來唱反調,表明了他對AI安全問題的立場:
在LeCun對Jan Leike對回復中,他表示當前對AI安全擔憂的緊迫感是過度誇張的,類似於在渦輪噴氣發動機發明之前,急於解決跨洋飛行的安全問題。所以也難怪OpenAI會邊緣化對齊團隊。
在他看來,目前的AI還不如貓智能,我們首先需要設計出比家更聰明的系統。並提到,就像飛機技術的發展一樣,智慧系統的進化需要多年時間,應該透過反覆的工程改進逐步提高其智慧和安全性,而不是過度擔憂未來可能的風險。
關於AI安全和治理問題,Yann LeCun先前與另一位人工智慧先驅Yoshua Bengio在網路上也進行過激烈辯論。 LeCun呼籲信任人工智慧可靠性的AI科學家和工程師發聲,而Bengio強調開放源AI平台的潛在風險,以及安全和治理的重要性。兩人的辯論反映了AI研究者之間對AI潛在風險、現有安全措施的有效性和未來發展路徑的重大分歧。
LeCun認為,與其想像災難性的場景,不如專注於設計安全的AI系統。他相信,透過正確的設計和工程方法,AI系統可以變得安全和可靠。他認為已經有大量的資金投入確保AI系統安全和可靠的工作中,這顯示業界對AI安全的重視和努力。 LeCun強調,AI的設計初衷是為了增強人類智能,而不是造成傷害。他不同意將AI系統比喻為武器的觀點,認為這樣的類比是不恰當的。
大語言模式無法通往AGI,不要浪費時間
雖然Meta推出了開源大型語言模式Llama,但Yann LeCun身為Meta的首席人工智慧科學家及FAIR(Facebook AI Research)負責人,對LLM的不看好卻是盡人皆知。
他最近也直接對學生喊話:如果你對下一代人工智慧系統有興趣,不要研究大型語言模型。
在近日與英國《金融時報》的一次訪談中,他反對依賴不斷發展的LLMs 來追求人類級別的智能,因為這些模型只有在被輸入正確的訓練數據時才能準確回答問題,因此「本質上是不安全的」。
GoogleDeepMind也花了幾年時間尋找建構AGI的替代方法,包括強化學習等方法,其中人工智慧代理在類似遊戲的虛擬環境中從周圍環境中學習。
所以他轉而專注於一種根本性的替代方法,正在努力開發一個全新的AI系統,希望這些系統能為機器提供人類級別的智能,儘管他表示這個願景可能需要10年才能實現。
LeCun認為,LLM的自回歸性質(根據先前的單字預測下一個單字)從根本上限制了它們實現真正智慧的能力。他主張聯合嵌入預測架構(JEPA) 作為一種更有前景的AGI方法。 LeCun也批評了當前對基於文本的學習的關注,認為需要觀察物理世界並與物理世界互動,以建立對規劃和推理至關重要的全面世界模型。
他強調感官輸入以及與物理世界的互動對於發展真正的智力的重要性。他指出,接受過大量文字資料訓練的LLM缺乏像人類和動物一樣推理、計劃和理解世界的能力。 LeCun建議未來的人工智慧系統需求:
1、結合感官輸入以更深入地了解世界。
2、與基於文字的學習相比,以更高的頻寬處理資訊(例如,人腦以每秒約20 兆位元組的速度處理視覺訊息)。
3.立足現實,擁有經驗知識,展現常識推理。
李飛飛近日和史丹佛哲學教授Etchemendy在《時代(Time)》上刊登文章,指出當前技術路線無法製造有感知能力的AI,該文章也得到了LeCun的轉發支持。
儘管Llama最初是由LeCun領導的FAIR開發的,但現在已經轉交給了專注於技術和產品開發的GenAI部門,FAIR則專注於更長遠的目標:開發能夠達到人類智慧水平的新AI架構和方法。
許多人認為Yann LeCun喜歡發表一些爭議言論,但更重要的背景是目前AI未來發展中產生的問題。作為人工智慧領域最知名的人士之一,Yann LeCun在某種程度上有義務站出來,為這個充滿爭議的領域提供一些清晰的見解。
LeCun說,實現AGI不是一個產品設計問題,甚至不是一個技術開發問題,在很大程度上是一個科學問題。
如果這個說法是成立的,那麼在通往探索AGI的道路上,顯然我們需要更多他這樣的「魯迅」。