OpenAI坐不住說明中國大模型路走通了
國產大模型在春節期間的一輪產品更新,終於讓OpenAI坐不住了。北京時間2月1日,OpenAI加急上線了o3-mini新推理模型,且首次向ChatGPT免費用戶開放。來自國產大模型的這波競爭壓力,甚至重新讓部分海外同業擔憂起美國AI的競爭力問題。

近期,前OpenAI高層、AI新創巨頭Anthropic創辦人達裡奧·阿莫迪(Dario Amodei),罕見發布了一篇萬字長文。在肯定DeepSeek-R1模型在特定基準測試中已逼近美國頂尖水準之外,阿莫迪認為DeepSeek的突破,更加印證了美國對華晶片出口管制政策的必要性和緊迫性。
而這輪國產AI力量中,在DeepSeek發表DeepSeek-R1模型的幾乎同一時間,月之暗面也推出了Kimi k1.5新模型。
上述兩款推理模型,均全面對標OpenAI o1完整版。其中,Kimi k1.5憑藉著同時支持文本和視覺推理的特性,成為首個可以比肩o1完整版水平的多模態模型。
儘管OpenAI展現了下一階段大模型的技術演進路線,但直到DeepSeek-R1和Kimi k1.5發布之前,國內一眾大模型廠商均尚未推出能夠對標OpenAI o1完整版的模型。它們的出現,成了國產大模型攻破OpenAI技術黑盒子的另一個實力展現。
更重要的是,比起OpenAI o1模型付費使用的限制,無論DeepSeek-R1,或是Kimi k1.5,都支援用戶免費無限呼叫。

堪比OpenAI o1完整版的模型性能,加上免費調用的差異化競爭優勢,DeepSeek-R1和Kimi k1.5新模型,成了春節期間國內大模型對OpenAI發起突然襲擊的兩把尖刀。
借助春節舞台,完成某種後來居上式的策略調整,已演變為中國科技公司的保留節目。
2014年春節前夕,微信首度推出紅包功能,未能掀起太多水花。轉折發生在2015年,借助與春晚合作,斥資5億元推出“搖一搖”紅包的微信,在除夕當天使得微信紅包收發總量超10億次,並在2天內完成了支付寶此前花費10年完成的工作——2億張銀行卡綁定。
微信紅包的此番逆襲,後來被馬雲在阿里內部稱為是對支付寶的一場“偷襲珍珠港”,並促使阿里在2016也開始重金贊助春晚,通過“集五福”的形式大撒紅包。
現在,被DeepSeek-R1和Kimi k1.5新模型突襲後的OpenAI,也不得不調整了自己的新品發布節奏。
在國產大模型的快速技術迭代和模型性能追趕壓力之下,即便是OpenAI,恐怕也受不了幾次這樣的突襲了。 「我們會開發出更好的模型,但我們不會像往年那樣保持那麼大的領先優勢了。」OpenAI CEO奧特曼在o3-mini發布後的問答環節中說道。
DeepSeek-R1和Kimi k1.5新模型一經發布,便在海外用戶群引發熱議。
英偉達AI科學家Jim Fan第一時間發文總結兩大模型的相似之處,認為兩者都簡化了強化學習框架,同時提升了推理性能和效率,並評價兩家公司所發表的技術論文,都堪稱“重磅”級別。

柏克萊人工智慧博士,Huggingface機器學習科學家Nathan Lambert、科技大V AK等也紛紛試用kimi,還有不少業內人士對這兩款來自中國的產品進行了測評。

與DeepSeek-R1一樣,Kimi k1.5新模型同樣展現出了詳細的思考過程。
北京時間1月31日,蘋果發布了新一季度財報,以此為契機,選中Kimi k1.5推理模型,輸入提示詞「寫一篇蘋果財報分析稿,其中尤其要關注中國市場的變化,以及蘋果AI何時在國產iPhone中上線的情況」。
經過一段時間思考,Kimi給了蘋果2025財年第一財季的業績報告數據,並特意指出其中大中華區營收為185.13億美元,年減11%。
除了給出網路參考的94個網頁資訊之外,Kimi還列出了自己的詳細思考過程。

如果將大模型看成數學家,沒有加入推理功能之前,大模型在證明了一個新的定理,或者解了一道新的數學題時,只會把答案寫出來,不會把思考的過程寫出來。但是,有了推理功能的加入,現在大模型就可以把原本只存在於數學家個人頭腦中的思考過程,給盡可能完整呈現出來。
Kimi k1.5推理模型的思考過程,相當有點「授人以魚不如授人以漁」的作用,將其用來指導學生學習,或者輔助程式設計師編寫程式碼等,都有了更強的實際用途,大模型從有用,逐漸變得真正好用起來。
更重要的是,相較於DeepSeek-R1,Kimi k1.5還是OpenAI之外首個實現o1完整版水準的多模態模型。
在Kimi k1.5推理模式下,上傳一張蘋果最新一季財報的數據圖表,並給出提示詞「給出圖中大中華區的營收情況,以及同比變化,並分析大中華區營收佔比」。
Kimi不僅讀懂了圖片中的營收數字,還透過列出數學公式的方式,準確算出了大中華的營收同比下降了11%,且營收佔比也從去年同期的17%,下降至今年的15%。

楊植麟曾在一次訪談中解釋道,長文本就是某種意義上的長推理,「如果我們想讓AI從完成一兩分鐘的任務變成完成長週期的任務,那必然要在一個很長的context (上下文)裡,才有可能真正把AI進一步往下推進。
加入圖片辨識等多模態功能,某種程度上也可以看作是對長文字準確率的一種提升,這種提升,未來還可能隨著無損壓縮影片多模態的融入,變得更加強大。
對人才的重視與培養,成為DeepSeek和月之暗面能夠率先做出對標OpenAI最新模型o1的共通性之一。
在DeepSeek目前約150人左右的團隊中,大多是一群Top高校的應屆畢業生、沒畢業的博四、博五實習生,以及一些畢業才幾年的年輕人。
從2023年初成立至今,月之暗面更是長期被視為中國大模型新創公司中,技術人才密度最高的玩家之一。
在Kimi k1.5中,月之暗面團隊找到了一種提升推理效率的原創技術,即Long2Short高效思維鏈。
在o1模型中,OpenAI一般依賴邏輯鏈(Chain-of-Thought,CoT)來逐步推導出解決方案,這是一種用時間換取精準答案的方法。
月之暗面團隊開發的long2short技術途徑,把長思維鏈(複雜的推理過程)的推理結果“教給”短思維鏈(簡單高效的推理過程),兩者進行合併,最後針對“短模型”進行強化學習微調,從而達到提升token利用率以及訓練效率的目的。
在Short CoT(短文)模式下,Kimi k1.5的能力同樣大幅領先GPT-4o和Claude 3.5,領先幅度高達550%。

良好的產品使用體驗正在為Kimi帶來用戶量的成長。根據SimilarWeb 2024年12月的數據,Kimi在web端排名全球前五,僅次於ChatGPT、Google Gemini、Claude和Microsoft Copilot。
在DeepSeek和Kimi們的突襲之下,來自OpenAI等對手的一輪新競爭,已經在趕來的路上。
奧特曼預告中的OpenAI 新模型o3-mini緊急上線,甚至新一代高級語音模型也發佈在即,為了在追求AGI道路上走得更快,奧特曼更是聯手軟銀孫正義,搞起了5000億美元的算力開發大計畫。
可以預見,追趕的壓力,或許很快便會再次來到國產AI們的頭上。
但透過DeepSeek-R1和Kimi k1.5新模型的這番突襲,一個值得關注的新變動是,國產大模型正在向外界越來越多地證明其自主創新能力,甚至不排除有一天完成對OpenAI的真正超越。
近期,Meta首席AI科學家楊立昆(Yann LeCun)在達沃斯“技術辯論”會議上再次提醒道,“我認為當前LLM(大語言模型)範式的生命週期相當短,可能只有三到五年。五年內,任何清醒的人都不會再使用它們了,至少不會作為AI系統的核心組成部分…我們將看到一種新的AI架構範式的出現,它可能不會有當前AI系統的那些局限性。
對於任何立志於實現AGI的大模型玩家而言,追趕OpenAI都絕不是公司成立的初衷和目標, OpenAI與國產大模型之間的差距,正在逐漸縮小已是不爭的客觀現實。
史丹佛大學電腦科學系客座教授、Google大腦聯合創始人吳恩達(Andrew Ng)近期發文指出,DeepSeek的討論讓許多人認識到一些顯而易見的重要趨勢,其中之一便是中國在生成式AI領域正赶超美國。

2022年11月ChatGPT剛推出之際,美國在生成式AI領域遠遠領先中國,這一領先差距被業界認為在2-3年之間。但經過兩年發展,OpenAI對國產大模式的領先優勢已經被縮減到6個月。
透過Kimi、DeepSeek等模型的持續突破,「中國企業展現出強大的創新能力,在視訊生成等特定領域甚至已經實現了局部領先。」吳恩達點評道。
國產大模型在技術上的快速迭代能力,甚至引得奧特曼在o3-mini的問答環節中,也不得不正視道,OpenAI的領先優勢不會再像往年那麼大了。
歸根究底,大模型所蘊藏的無限技術創新空間,為國產大模型玩家們,在打造產品差異化方面提供著無限機會。
更廣闊的AI創新前景,也將孕育出更多國產大模型的奇襲時刻。