人工智慧燒錢的火勢越來越大
華爾街日報發文解析,為什麼人工智慧領域支出的成長呈現上升趨勢。文章認為,儘管投資人曾短暫猶豫,但現在,大型科技公司、政府和創投正以前所未有的速度將資金注入AI領域。要理解這現象,我們需要深入了解人工智慧技術本身的演進。
從大語言模型到推理模型
傳統的大語言模型需要大量的電力和運算時間來訓練。然而,人們正在迅速找到方法,以減少在使用者運行大語言模型時所需的資源量。推理模型則不同,它們基於大語言模型,但在實際運作中消耗的資源(包括晶片和電力)要多得多。
自OpenAI在9月發布其首個推理模型o1以來,AI公司紛紛推出競爭產品。其中包括今年初震撼AI界,以及許多科技和電力公司估值的DeepSeek R1,還有伊隆馬斯克的xAI剛推出的Grok 3推理模型。
DeepSeek之所以引起恐慌,是因為它展示了一種可能性,即以其他模型成本的一小部分來訓練AI模型。這可能會減少對資料中心和昂貴、先進的晶片的需求。但實際上,DeepSeek推動了AI產業去發展資源需求量更大的推理模型,這意味著計算基礎設施仍然非常必要。
推理模型的資源需求
推理模型及其相關產品(如「Deep research」工具和AI agent)為何需要如此多的資源?答案在於它們的運作方式。
Nvidia的AI產品管理副總裁Kari Briski最近表示,AI推理模型可以輕鬆使用超過傳統大語言模型100倍的運算資源。這種倍增來自於推理模型在長時間「思維鏈」中與自己對話(並非所有對話使用者都能看到)。模型使用的計算資源與產生的單字數量成正比,因此產生100倍單字的推理模型將使用更多的電力和資源。
當推理模型存取互聯網時,資源需求會進一步增加,如Google、OpenAI和Perplexity的Deep research模型。
這個數量的算力需求只是開始。 Google、微軟和Meta計畫在2025年共同支出至少2,150億美元用於資本支出,其中大部分用於AI資料中心。這將比去年增加45%的資本支出。

科技巨頭們的季度資本支出
未來AI有多大需求?
為了預測未來AI的需求量,我們可以列出一個簡單的等式。等式中的第一個值,是在像ChatGPT這種大模型的內部,處理單一資訊標記所需的計算資源量。
1月,隨著中國AI模型DeepSeek R1的發布,每個標記的成本(包括算力資源和金錢)似乎會大幅下降。 DeepSeek及其相關論文展示了一種方法,可以比美國AI實驗室先前揭露的方法更有效率的方式訓練和交付AI。
表面上看,這似乎表明AI未來對運算能力的需求將僅為當前的一小部分,例如十分之一甚至更少。但推理模型在回答使用者提問時需求量的增加可能會彌補這一點。簡單來說,如果基於DeepSeek見解的更有效率AI模型,將對運算能力的需求減少到十分之一,但如果推理模型成為標準,並使對這些模型的需求增加100倍,那麼未來AI對算力的需求仍將是現在的10倍。
1000倍成長
這只是起點。隨著企業發現新AI模型更強大,它們越來越多地調用這些模型。這將計算能力的需求從訓練模型轉向使用模型,即AI行業中的「推理」。
Baseten的CEO Tuhin Srivastava表示,這種向推理的轉變已經在進行中。他的客戶包括在應用程式和服務中使用AI的科技公司,如Descript和PicnicHealth。這些客戶發現,隨著對自身產品需求的快速成長,他們需要更多的AI處理能力。
未來幾年,技術創新和更先進AI晶片的出現可能意味著,向客戶提供AI的系統會比今天更有效率一千倍。創投家Tomasz Tunguz表示,投資人和大型科技公司在賭,未來十年中,由於推理模型和AI的迅速普及,對AI模型的需求可能會增加一兆倍或更多。
「你鍵盤上的每一次按鍵,或你對著麥克風說的每一個音素,都將由至少一個AI轉錄或處理,」Tunguz說。如果是這樣,他補充道,AI市場可能很快就會比今天大1000倍。