AI產業買英偉達GPU 花的錢比賺的多17倍有人卻表示很合理
搞AI 大模型,實在太燒錢了。我們知道,如今的生成式AI 有很大一部分是資本遊戲,科技巨頭利用自身強大的算力和數據佔據領先位置,並正在使用先進GPU 的並行算力將其推廣落地。這麼做的代價是什麼?最近《華爾街日報》一篇有關明星新創公司的報導裡給出了答案:投入是產出的17 倍。
上個週末,機器學習社群圍繞著這個數字熱烈地討論了起來。
明星創業公司,幾週估值翻倍:但沒有收入
由知名投資人Peter Thiel 支持的AI 新創公司Cognition Labs 正在尋求20 億美元估值,新一輪融資在幾週之內就將該公司的估值提高了近六倍。
在現今火熱的生成式AI 領域裡,Cognition 是一家冉冉升起的新星。如果你對它還不太熟悉,這裡有它的兩個關鍵字:國際奧賽金牌團隊,全球首位AI 程式設計師。
Cognition 由Scott Wu 共同創立,其團隊組成吸引眼球,目前只有10 個人,但包含許多國際資訊學奧林匹克競賽的金牌選手。
Cognition Labs 的團隊,CEO Scott Wu(後排身穿襯衫)只有27 歲。
該公司在今年3 月推出了AI 代碼工具Devin,號稱“第一位接近人類的AI 程式設計師”,能夠自主完成複雜的編碼任務,例如創建自訂的網站。從開發到部署,再到debug,只需要人類用自然語言給予需求,AI 就能辦到。
該新聞很快就登上了許多媒體的頭條,也成為了熱搜:
一些投資者表示,Devin 代表了人工智慧的重大飛躍,並可能預示著軟體開發的大規模自動化之路已經開啟。
Cognition 雖然神奇,但它並不是個獨苗。最近一段時間,生成式AI 展現了超乎想像的吸金能力。去年12 月,總部在法國的Mistral 獲得了4.15 億美元融資,估值達到20 億美元,比前一年夏天的一輪融資增長了大約七倍。
3 月初,旨在挑戰Google網路搜尋主導地位的AI 新創公司Perplexity 也傳來新一輪融資的消息,新估值預計將達到近10 億美元。
而在這其中,作為一家旨在提供AI 自動程式碼工具的新創公司,Cognition 去年才開始研發產品,目前並沒有獲得有意義的收入數字。今年初,在Founders Fund 牽頭的一輪2,100 萬美元融資中,該公司的估值達到了3.5 億美元。據介紹,美國著名創業投資家、創辦Founders Fund 的Peter Thiel 幫助領導了對Cognition 的投資。
Peter Thiel 是全球暢銷書《從0 到1:開啟商業與未來的秘密》的作者,身家71 億美元。
AI 編寫程式碼看起來是一個有前途的大模型應用方向,其他提供類似產品的公司也看到了成長勢頭。上個季度,微軟的程式碼工具GitHub Copilot 用戶數量成長了30% 達到130 萬。 Magic AI 是Cognition 的競爭對手,2 月獲得了1.17 億美元的投資。國內也有一些代碼產生自動化工具的新創企業,在生成式AI 技術爆發後正在加速產業落地。
儘管出現了令人鼓舞的成長跡象,新公司的估值也不斷膨脹,但這種快速發展也引發了人們對於出現泡沫的擔憂—— 到目前為止,很少有新創公司能夠展示他們如何賺錢,想要收回開發生成式AI 的高成本,似乎還沒有門道。
在3 月的演講中,紅杉資本(Sequoia Capital)有投資人估計AI 產業去年為了訓練大模型,光是在英偉達晶片上就花費了500 億美元,而換來的收入是30 億美元。
所以說,不算電費,開銷是收入的17 倍。
怎麼樣,今年還玩得起嗎?
出路在哪
如今生成式AI 技術的爆發,可謂驗證了強化學習先驅Richard S. Sutton 在《苦澀的教訓》中的斷言,即利用算力才是王道。黃仁勳兩週前在GTC 上也曾表示:「通用運算已經失去動力,現在我們需要更大的模型、更大的GPU,需要將GPU 堆疊在一起… 這不是為了降低成本,而是為了擴大規模。”
但是在千億、萬億參數量的大模型出現之後,透過提升規模來提升智能的方法是否還可以持續,是一個無法迴避的問題。更何況現在的大模型已經很貴了。
華爾街日報的文章迅速引起大量討論。有網友認為:“資本支出通常就是一次性的,而投資的收入卻是日積月累的。生成式AI 剛剛起步,其後續的經濟收益可能是巨大的。”
但這種樂觀的觀點很快就遭到反駁,另一位網友指出:“資本的支出的確是一次性的,但GPU 會相對較快地貶值。”
為什麼說GPU 會快速貶值呢?雖然較舊版的GPU 也不會停止支援CUDA(英偉達推出的運算平台)等等,但與H100 相比,V100 的能源消耗是巨大的浪費。
畢竟同樣也是在3 月份,英偉達已經發布了全新一代AI 加速的GPU Blackwell 系列。
近八年來,AI 算力增加了一千倍。
如果使用V100 可以賺錢,那當然沒問題。然而,如諸多媒體報導所述,對大多數公司來說,現階段運行大模型並沒有轉化為實際收入。
另一方面,看看現在大模型每週都在推陳出新的狀態,即使幾年前的GPU 在算力角度看可以接受,但大模型也在「快速折舊」。七年後的AI,用現在的基礎設施能支撐嗎?
此外,如果一家公司花費大量成本來購買V100,試圖跟上生成式模型的趨勢,那麼可能就會出現研究團隊僱用成本不足的問題,那麼最終可能還是無法做出有實際應用、經濟收益的產品。
值得注意的是,許多LLM 需要額外的處理層來消除幻覺或解決其他問題。這些額外的層顯著增加了生成式模型的計算成本。這不是10% 的小幅增長,而是計算量增長了一個數量級。而許多行業可能都需要這種改進。
圖源:Reddit 用戶@LessonStudio
從產業的角度講,運行生成式大模型需要大型資料中心。英偉達已經非常了解這個市場,並持續迭代更新GPU。其他公司可能無法僅投資數百億美元來與之競爭。而這些GPU 需求還只是來自各大網路公司的,還有很多新創公司,例如Groq、Extropic、MatX、Rain 等等。
最後,也有人給出了這種誇張投入的「合理性」:坐擁大量現金的微軟、Google和Meta,他們因為反壟斷法規而無法繼續收購,因而只能選擇將資金投入AI 技術發展。而GPU 支出的折舊,可以作為損失避免繳納更多稅金。
但這就不是新創公司要考慮的事了。
無論如何,競爭會決勝者。無論花掉多少錢,成為第一可能就會帶來潛在的利益…
但是什麼樣的收益,我們還無法作出預測。難道,生成式AI 真正的贏家是英偉達?