洩漏的DeepSeek R2資訊揭示其運用自主AI基礎設施實現性能提升
據知名AI 業內人士@iruletheworldmo 在X 上透露,DeepSeek 憑藉其R1 模型席捲AI 世界之後,目前正在準備發布一款據稱性能得到大幅改進的全新DeepSeek R2 模型。在華為Ascend 910B 晶片集群、潛在的華為Atlas 900 以及DeepSeek 內部分散式訓練框架的支持下,R2 將這些加速器的利用率提升至令人印象深刻的82%,相當於512 PetaFLOPS 的FP16 性能——計算能力為exaFLOP 的一半。
根據華為實驗室的數據,這大約是NVIDIA 舊款A100 叢集所提供的效能的91%,但DeepSeek 聲稱它將單位訓練成本降低了97.3%。
DeepSeek R2 背後是一個精心培育的合作夥伴生態系統。拓維資訊是昇騰系列的領先OEM廠商,承接了DeepSeek超過一半的超級運算硬體訂單,而曙光則提供每台功率高達40kW的液冷伺服器機架。為了控制功耗,旭創科技的矽光收發器與傳統解決方案相比,可再降低35%的功耗。
從地理位置上看,營運分佈在幾個主要的樞紐:潤建股份運營著華南超級計算中心,每年的合約金額超過50億元人民幣,中貝通訊在西北地區保留了1500PetaFLOP的備用計算能力,以應對峰值需求。
在軟體方面,DeepSeek R2已經支援私有部署和微調,透過雲賽智聯平台為15個省的智慧城市計畫提供支援。由鴻博股份旗下英博數字負責監管的華北節點將運算能力再提升3000PetaFLOP。
如果運算能力不足,華為準備部署其CloudMatrix 384 系統,該系統定位為NVIDIA 200 GB NVL72 的國產替代方案。它配備384 個Ascend 910C 加速器,可實現NVL72 叢集整體petaFLOPS 的1.7 倍和HBM 總容量的3.6 倍——然而,其單晶片效能明顯落後,功耗幾乎是NVL72 叢集的四倍。
