專家認為追求更多運算能力的通用人工智慧是一種失敗的策略
過去幾年,主要科技公司一直認為,只要為人工智慧投入更多運算能力,就能實現通用人工智慧(AGI),也就是與人類認知相當甚至超越人類認知的系統。但最近對人工智慧研究人員的一項調查顯示,越來越多的人懷疑,無止盡地擴大現有方法是否是正確的前進道路。

最近對475 名人工智慧研究人員進行的一項調查顯示,76% 的人認為在現有人工智慧模型中添加更多運算能力和數據「不太可能」或「非常不可能」實現AGI。
這項由人工智慧促進協會(AAAI) 進行的調查顯示,人們的懷疑情緒日益高漲。儘管已投入數十億美元建造大型資料中心和訓練越來越大的生成模型,但研究人員認為,這些投資的回報正在減少。
加州大學柏克萊分校的電腦科學家、該報告的撰稿人斯圖爾特·拉塞爾(Stuart Russell)告訴《新科學家》雜誌:“在擴展方面投入了巨額資金,卻沒有付出任何同等的努力去了解到底發生了什麼,在我看來,這似乎是錯誤的。”
數字說明了一切。根據TechCrunch 報道,光是去年,生成式人工智慧的創投就超過560 億美元。這項推動也導致了對人工智慧加速器的巨大需求,2 月的一份報告指出,到2024 年,半導體產業的規模將達到驚人的6,260 億美元。
運行這些模型始終需要大量能源,而且隨著規模的擴大,需求也只增不減。因此,微軟、Google和亞馬遜等公司正在爭取核電協議,為其資料中心提供能源。
然而,儘管投入了巨額資金,尖端人工智慧模型的表現卻停滯不前。例如,許多專家認為,OpenAI 的最新模型與前代模型相比,只顯示出微小的改進。
除了懷疑之外,調查還凸顯了人工智慧研究人員優先事項的轉變。雖然77% 的人優先考慮設計具有可接受風險收益特徵的人工智慧系統,但只有23% 的人專注於直接追求AGI。此外,82% 的受訪者認為,如果AGI 由私人實體開發,則應由公眾擁有,以減輕全球風險和道德問題。然而,70% 的人反對在建立完整的安全機制之前停止AGI 研究,這表明應採取謹慎但向前邁進的方法。
正在探索更便宜、更有效的擴展替代方案。 OpenAI 已經嘗試了“測試時間計算”,其中AI 模型在生成響應之前花費更多時間進行“思考”。這種方法無需大規模擴展即可提高效能。不幸的是,普林斯頓大學電腦科學家Arvind Narayanan 告訴《新科學家》,這種方法「不太可能成為靈丹妙藥」。
另一方面,Google執行長桑達爾·皮查伊等科技領袖仍保持樂觀,聲稱該行業可以「繼續擴大規模」——儘管他暗示人工智慧唾手可得的時代已經結束。