叫板黃仁勳?Meta首席AI科學家:超級人工智慧不會很快到來
上週末,Facebook 母公司Meta在舊金山舉行了一場媒體活動,慶祝其基礎人工智慧研究團隊成立10 週年。在這場活動上,Meta的首席AI科學家、深度學習先驅、圖靈獎得主楊立昆(Yann LeCun)表示,他認為如果人類想要訓練出一種不僅僅具備總結文本能力、而且具備某種意義上類人的感知能力和常識的人工智慧系統,還需要幾十年的時間。
他的觀點與英偉達CEO黃仁勳上週的觀點截然不同。黃仁勳上週曾表示,人工智慧將在不到五年的時間內成長到「相當有競爭力」的水平,在許多腦力密集型任務上勝過人類。
未來更有可能出現「貓級」人工智慧
楊立昆表示,在「人類級」等級的人工智慧出現前,社會更有可能出現「貓級」或「狗級」的人工智慧。科技業目前對語言模型和文字資料的關注,不足以創造出研究人員在過去幾十年來一直夢想的那種先進的類人人工智慧系統。
楊立昆認為,限制目前人工智慧發展速度的原因之一,在於訓練資料的來源主要限於文字。「文本是一個非常糟糕的資訊來源,」楊立昆解釋說,目前要訓練出一個現代語言模型,所需要的的文本量巨大,需要人類用2萬年才能閱讀完。然而,「即使你用相當於兩萬年的閱讀材料來訓練一個系統,它們仍然不明白:如果A和B相同,那麼B就和A相同……世界上有很多非常基本的東西,他們沒法透過這種訓練來了解。”
因此,楊立昆和Meta AI的其他高管一直在大力研究如何自訂用於創建ChatGPT等應用程式的所謂轉換器模型,以處理各種數據(包括音訊、圖像和視訊資訊)。他們認為,只有這些人工智慧系統能發現這些不同類型的數據之間可能存在的數十億個隱藏的相關性,它們才更有可能達到更高的水平。
Meta高層展示了他們的研究成果之一:一個戴著AR眼鏡打網球的人能夠看到AI視覺提示,教導他們如何正確地握住網球拍,並以完美的方式擺動手臂。為這類數位網球助理提供動力所需的AI模型,除了文字和音訊之外,還需要混合三維視覺數據。
英偉達仍將繼續受益
這些所謂的多模型人工智慧系統代表了下一個前沿領域,但這項發展所需投入的成本會更大。楊立昆預計,隨著Meta和Google母公司Alphabet等越來越多的公司研究更先進的人工智慧模型,英偉達可能會獲得更大的優勢,尤其是在沒有其他競爭對手出現的情況下。
一直以來,英偉達都是生成式人工智慧的最大受益者之一,其昂貴的GPU已成為用於訓練大規模語言模型的標準工具。
“我認識Jensen(黃仁勳),”楊立昆表示,英偉達可以從當前的人工智慧熱潮中獲益良多,“這是一場人工智慧戰爭,他在提供武器。”
″(如果)你認為人工智慧很流行,你就得買更多的GPU,」楊立昆談到,只要OpenAI等公司的研究人員繼續追求AGI(通用人工智慧),他們就需要更多英偉達的電腦晶片。
那麼,隨著Meta和其他研究人員繼續開發這類複雜的人工智慧模型,科技業是否需要更多的硬體供應商?
楊立昆對此的回答是:“目前不需要,但如果有,將會更好。”
他還補充說,GPU技術仍然是人工智慧的黃金標準。不過,未來的電腦晶片可能不會被稱為GPU。
量子電腦的意義和可行性存疑
除了人工智慧,楊立昆也對量子電腦持懷疑態度。
目前,微軟、IBM和Google等科技巨頭都在量子運算領域投入了大量資源。許多研究人員認為,量子計算機器可以在資料密集型領域(如藥物發現)取得巨大進步,因為它們能夠使用所謂的量子位元(而不是現代計算中使用的傳統二進位位元)執行多次計算。
但楊立昆對此表示懷疑:「你用量子計算所可以解決的問題,用經典計算機也可以更快解決。」「量子計算是一個迷人的科學話題,」楊立昆說,但目前還不太清楚「量子計算機的實際意義和製造真正有用的量子計算機的可能性」。
Meta高級研究員、前技術主管 Mike Schroepfer)對此表示贊同。他每隔幾年就會對量子技術進行評估,並認為有用的量子機器“可能會在某個時候出現,但它的時間跨度太長,與我們目前正在做的事情無關。”