DeepSeek掀起AI算力革命:英偉達暴跌17% 台積電暴跌13%
近日,中國人工智慧(AI)大模型技術廠商DeepSeek(深度求索)發布的推理大模型DeepSeek-R1火爆網絡,其不僅性能比肩OpenAI o1 ,並且其所需的訓練成本可能只有後者的約1/ 20,API的定價更是只有後者的約1/28,相當於使用成本降低了約97%。

這不僅引發了外界對於OpenAI、Meta、Google等眾多大模型廠商嚴重依賴於高成本的英偉達AI晶片持續堆算力的「大力出奇蹟」模式的質疑,也導致了市場對於眾多市值已大漲的AI晶片股的價值需要重估的擔憂。
受此影響,在美國當地時間1月27日的美股交易當中,Marvell大跌19.1%、博通大跌17.4%、英偉達大跌16.97%,台積大跌13.33%、美光大跌11.71%、AMD大跌6.37%、ASML大跌5.75%。

DeepSeek-V3橫空出世:性能比肩GPT-4o,訓練成本僅為其1/20
早在2024年12月26日,DeepSeek就透過官方微信公眾號發布推文稱,旗下全新系列模型DeepSeek-V3首個版本上線並同步開源。國外獨立評測機構Artificial Analysis測試了DeepSeek-V3後表示,「DeepSeek-V3超越了迄今為止所有開源模型。」更為關鍵的是,該模型使用英偉達H800 GPU在短短兩個月內就訓練完成,並且只花了約558萬美元。
據介紹,DeepSeek-V3為自研MoE模型,671B參數,活化37B,在14.8T token上進行了預訓練。 DeepSeek-V3多項評測成績超越了Qwen2.5-72B和Llama-3.1-405B等其他開源模型,並在性能上和世界頂尖的閉源模型GPT-4o以及Claude-3.5-Sonnet不分伯仲。

針對DeepSeek-V3,獨立評測網站Artificial Anlaysis就關鍵指標——包括品質、價格、效能(每秒產生的Token數以及首個Token生成時間)、上下文視窗等多方面——與其他人工智慧模型進行對比,最終得出以下結論。
品質:DeepSeek-V3品質高於平均水平,各項評估得出的品質指數為80。
價格:DeepSeek-V3比平均價格便宜,每100萬個Token的價格為0.48美元。其中,輸入Token價格為每100萬個Token 0.27美元,輸出Token價格為每100萬個Token 1.10 美元。
速度:DeepSeek-V3比平均速度慢,其輸出速度為每秒87.5個Token。
延遲:DeepSeek-V3與平均值相比延遲更高,接收首個Token(即首字回應時間)需要1.14秒。
上下文視窗:DeepSeek-V3的上下文視窗比平均值小,其上下文視窗為13萬個Token。
最終Artificial Anlaysis得出結論:DeepSeek-V3模型超越了迄今為止發布的所有開放權重模型,並且擊敗了OpenAI的GPT-4o(8月),並接近Anthropic的Claude 3.5 Sonnet(10月)。 DeepSeek-V3的人工智慧分析品質指數得分為80,領先OpenAI的GPT-4o和Meta的Llama 3.3 70B等模型。目前唯一仍領先DeepSeek的型號是Google的Gemini 2.0 Flash和OpenAI的o1系列模型。領先阿里巴巴的Qwen2.5 72B,成為了AI大模型領域的領導者。
更重要的是,DeepSeek使用2048塊英偉達H800 GPU在短短兩個月內就訓練出了DeepSeek-V3,僅花費了約557.6萬美元,僅為GPT-4o(約超過1億美元)的接近二十分之一,資源運用效率極高。

OpenAI創始成員Karpathy也表示:「DeepSeek-V3讓在有限算力預算上進行模型預訓練這件事變得容易。DeepSeek-V3看起來比Llama-3-405B更強,訓練消耗的算力僅為後者的1/11。
當時外界對此事也有一些質疑之聲,例如有測試發現,DeepSeek-V3竟然聲稱自己是ChatGPT。一時間,「DeepSeek-V3是否在使用ChatGPT輸出內容進行訓練」的質疑聲四起。
對此,有猜測稱,DeepSeek可能用了包含GPT-4透過ChatGPT產生的文本的公共資料集。 「如果DeepSeek-V3是用這些數據進行訓練的,那麼該模型可能已經記住了GPT-4的一些輸出,現在正在逐字反芻它們。”
不過,DeepSeek-V3也不是第一個錯誤辨識自己的模型,Google的Gemini等有時也會宣稱是競爭對手的模型。例如,Gemini在國語提示下稱自己是百度的文心一言聊天機器人。造成這種情況的原因可能在於,AI公司在網路上取得大量訓練數據,但是,現如今的網路本來就充斥著各種用AI生產出來的數據。
DeepSeek-R1:性能比肩OpenAI o1,使用成本僅為其1/28
然而,在時隔不到1個月之後,2025年1月20日,DeepSeek又發布了全新的推理大模型DeepSeek-R1,回擊了外界的質疑。
根據介紹,DeepSeek-R1在後訓練階段大規模使用了強化學習技術,在僅有極少標註資料的情況下,大幅提升了模型推理能力。在數學、程式碼、自然語言推理等任務上,效能比肩OpenAI o1 正式版。

在國外大模型排名Arena上,DeepSeek-R1基準測試已升至全類別大模型第三。其中,在風格控制類別模型(StyleCtrl)分類中與OpenAI o1並列第一;其競技場得分達到1357分,略超OpenAI o1的1352分。
1月27日,社交平台認證為「AI投資機構Menlo Ventures負責人」的Deedy對比GoogleGemini和DeepSeek-R1後表示,DeepSeek-R1更便宜、上下文更長、推理性能更佳。
DeepSeek也宣布將DeepSeek-R1 訓練技術全部公開,以期促進技術社群的充分交流與創新協作。
除了性能出眾之外,低成本也是DeepSeek-R1一大關鍵優勢,雖然其預訓練費用雖然並未公開,但是猜測應該與DeepSeek-V3相當。同時,DeepSeek公佈的API的定價顯示,其每百萬輸入tokens 1元(緩存命中)/4元(緩存未命中),每百萬輸出tokens 16元。 DeepSeek-R1這個收費大約是OpenAI o1正式版運行成本的約1/28。 OpenAI o1模型上述三項服務的定價分別約合人民幣55元、110元、438元。


也就是說,使用者使用DeepSeek-R1,即可體驗到與OpenAI o1 效能相當的大模型使用體驗,但使用成本只需要OpenAI o1的1/28,即成本降低了約97%。
DeepSeek掀起AI算力“革命”
眾所周知,演算法、算力和數據是影響AI能力的三大核心要素,而對於通用大模型來說,經過這兩年來發展,業界普遍認為要實現AGI(通用人工智慧)必須依賴越來越龐大的大參數模型,因此需要更強大算力作為支援。因此我們可以看到,微軟、Google、Meta、X、位元組跳動、亞馬遜、阿里巴巴等大廠一直持續加大AI晶片的採購。
近日,在美國政府的推動下,OpenAI、軟銀、甲骨文等廠商也宣布將聯合成立一家新的AI公司「Stargate」(星際之門),未來四年將投資5,000億美元,而這大部分資金都將用於建設AI基礎設施。
在這些廠商對於AI晶片旺盛的需求帶動下,此也直接推動了英偉達、博通、台積電、ASML等眾多AI晶片產業鏈相關廠商業績和股價的大漲。
但是,如果DeepSeek的僅利用非常低的算力和成本就能夠實現高級的AI能力的模式被普遍認可,那麼可能將會引發對於現有的依賴於堆芯片算力的AI發展模式的“革命” 。
一位Meta工程師公開表示,其內部正因DeepSeek進入「恐慌模式」。
Scale AI創辦人Alexander Wang也表示,DeepSeek是“中國科技界帶給美國的苦澀教訓”,證明“低成本、高效率”的研發模式可能顛覆矽谷巨頭的高投入路徑。社交平台認證為“風險投資人”的ShortBear評論稱,“DeepSeek的興起對那些商業模式為銷售大量GPU(英偉達)或購買大量GPU(OpenAI、微軟、谷歌)的公司都形成了挑戰。”
因此,我們可以看到,在美股1月28日的交易當中,英偉達、台積電、博通、ASML等AI晶片產業鏈上的巨頭們的股價都出現了大幅的下跌。
不過,對於此番DeepSeek所引發的對AI晶片產業鏈企業價值重估的恐慌,也有分析師認為這是一個很好的投資機會,因為即使對於AI晶片需求暫時減少,但是對於AI晶片需求依然會存在,該市場也仍會由英偉達佔據領導地位。
投行韋德布希資深股票分析師Daniel Ives在最新的研報中稱,DeepSeek使用英偉達性能較弱的晶片構建了足以媲美OpenAI的ChatGPT和Meta的Llama 3.1的大模型,因此引起了美國科技股的波動。 「但我們認為,這是另一個黃金買入機會,而不是恐慌的時候。全球只有英偉達推出自主、並用於機器人和更廣泛AI用例的晶片。DeepSeek的大模型雖然留下了深刻的印象,但不足被視作威脅。
英偉達也對此回應稱:「DeepSeek是一項卓越的人工智慧進展,也是測試時擴展的絕佳範例。DeepSeek的研究展示瞭如何運用該技術,借助廣泛可用的模型以及完全符合出口管制規定的算力,創建新模型。
需要指出的是,目前中國正面臨美國持續升級的對華AI晶片及先進半導體設備出口管制政策,這也使得中國難以取得外部先進的AI晶片,也難以依賴內部製造先進的AI晶片,因此這也迫使DeepSeek另闢蹊徑,拋棄常規的依賴於堆算力的技術發展路線,並獲得了成功,打破了美國對中國AI的封鎖。
面壁智慧首席科學家劉知遠在朋友圈發文稱,「DeepSeek最近出圈,特別好地證明了我們的競爭優勢所在,就是透過有限資源的極致高效利用,實現以少勝多。2024年很多人來問我,中國跟美國的AI差距是擴大了還是縮小了,我說明顯縮小了,但能感受到大部分人還不太信服,現在DeepSeek等用實例讓大家看到了這一點,非常贊。
「AGI新技術還在加速演進,未來發展路徑還不明確。我們仍在追趕的階段,已經不是望塵莫及,但也只能說尚可望其項背,在別人已經探索出的路上跟隨快跑還是相對容易的。
當然,DeepSeek的成功並不是閉門造車的結果,而是博採眾長,吸取了眾多前人的經驗(例如開源的PyTorch和Llama),這也是為什麼DeepSeek的大模型也採用了開源(open-source)的模式。
圖靈獎得主、主導Meta AI研究的首席科學家Yann LeCun就指出,DeepSeek 成功的最大收穫,是AI開源的價值使任何人都能受益。
「對那些看到DeepSeek表現並認為『中國在AI領域正超越美國』的人而言,你的解讀錯了,正確解讀應是『開源模式正超越專有模式』。DeepSeek從開放研究和開源中獲益良多(如PyTorch和Llama),他們提出新想法,並從其他人的工作基礎加以建構。研究和開源的力量。