李開復:DeepSeek爆發說明閉源大模型是一條死路
2025中關村論壇年會期間,在「未來人工智慧先鋒論壇」上,創新工場董事長兼零一萬物CEO李開復發表演講。對於DeepSeek大爆發,他表示,DeepSeek破解並開源推理模型的思考訓練過程,進一步縮小與美國的差距;高效工程效率,與OpenAI天量級融資的底層邏輯針鋒相;開源模型能力追趕上閉源模型,進一步推進SOTA模型的商品化。
這顯示閉源的路是一條死路,開源才能得到更好的發展;「DeepSeek Moment」大幅加速大模型在中國的全面落地。
不過他指出,DeepSeek模型很強,但企業落地需要解決三個問題:安全部署,快速實現私有化、安全部署的DeepSeek;應用實踐,針對行業場景把DeepSeek用起來;行業定制,更懂行、能進化的DeepSeek。
為此,零一萬物近期也進行了策略調整,全面擁抱DeepSeek,做企業級DeepSeek部署客製化解決方案。
他表示,Al技術井噴的浪潮下,2025年會是Al應用大規模落地的元年。具體而言,過去兩年大模型能力不斷提升,在問答能力上已經遠超人類;新技術持續突破,數位化Al與真實物理世界將進一步融合;大模型推理成本一年下降10倍,Al 2.0普惠點將加速產業滲透;相較雲計算,Al 2.0應用層的爆發週期將縮短到兩年內。
另外,隨著Scaling Law的放緩,超大預訓練模式的直接商業價值逐漸降低。理由1,資料不足導致大模型之父預測傳統預訓練將終結;理由2,超大GPU群效率降低,容錯問題等導致邊際效應降低;理由3,超大預訓練模型價格昂貴,速度緩慢;理由4,新推理Scaling Law(慢思考)將帶來更高回報。
他認為,超大預訓練模型的價值正在轉移,將進一步體現在「教師模型」的角色中,其本質也將更趨進於大模型時代的基礎設施。舊學習典範是人教AI,新學習典範是Al教Al。
