傳DeepSeek擁有5萬個英偉達AI晶片即使受到美國限制
據DeepSeek 執行長稱,中國人工智慧實驗室DeepSeek 可以使用數萬個NVIDIA H100 AI GPU 進行訓練。 DeepSeek R1 是世界上最先進的AI 模型之一,可與OpenAI 的新o1 和Meta 的Llama AI 模型相媲美。
在接受CNBC 的最新採訪時,Scale AI 創始人兼執行長Alexander Wang 表示,DeepSeek R1 在其公司最具挑戰性的AI 測試中達到或擊敗了所有表現最佳的AI 模型。
CNBC 的Andrew Ross Sorkin 採訪了王,談到了DeepSeek 的新AI 測試,名為人類的最後考試,其中最難的問題是由數學、物理、生物、化學教授提出的,與最新研究相關。
在測試了所有最新的AI 模型後,王的團隊發現DeepSeek 的新模型實際上是表現最好的,或者大致與美國最好的模型相當,而美國最好的模型是o1。
當被問及中美之間的人工智慧競爭時,王教授補充說:長期以來,美國一直處於領先地位。但他指出,DeepSeek 的新模型確實試圖改變這一現狀,他認為中國實驗室在聖誕節發布驚天動地的模型具有像徵意義,因為大家都在慶祝聖誕節。
DeepSeek 使用NVIDIA 的Hopper AI 架構和H100 和H200 AI GPU 來訓練他們的AI 模型,而拜登政府實施了限制措施,以阻止強大的AI GPU 進入中國。但將先進的AI 晶片引入中國似乎不那麼困難,王告訴CNBC:現實是肯定的,也是否定的。你知道中國實驗室擁有的H100 比人們想像的還要多。
王先生表示,據他了解,DeepSeek 擁有大約五萬個H100 ,並且他們不能談論這個,顯然因為這違反了美國實施的出口管制,並補充說他們擁有的晶片比其他人預期的要多。
未來,對於中國獲得先進的人工智慧晶片,王先生表示:但從長遠來看,它們也將受到我們現有的晶片管制和出口管制的限制。
研究中國創新的雪梨科技大學副教授Marina Zhang 表示:與許多嚴重依賴先進硬體的中國人工智慧公司不同,DeepSeek 專注於最大限度地優化軟體驅動的資源。 DeepSeek 採用開源方法,匯集集體專業知識並促進協作創新。這種方法不僅可以緩解資源限制,還可以加速尖端技術的開發,讓DeepSeek 從更孤立的競爭對手中脫穎而出。