Meta號稱自研AI晶片為何轉身買了英偉達35萬個GPU?
近日,Meta公司馬克·祖克柏(Mark Zuckerberg)在Instagram上發表文章稱,計劃在今年年底前向晶片設計商英偉達購買35萬個H100 GPU晶片。網路的記憶是:2023年,Meta公司計畫自研v1晶片,以用於人工智慧。
高調自研的Meta轉身狂購英偉達晶片
Meta首席科學家楊立昆(Yann LeCun)上個月在舊金山舉行的活動中強調了GPU對於建構通用人工智慧(AGI)的重要性。他說:“如果你認為AGI時代正在到來,你就必須購買更多的GPU。這是一場人工智慧戰爭,而英偉達正在提供武器。”
Meta第三季財報顯示,2024財年的總支出將在940億美元至990億美元之間,部分原因是在算力上的擴張。
矛盾的是:之前,Meta的打算是自研晶片,不依賴英偉達。
2023年,Meta公司首度曾公開其自研晶片的進展,表示開始計畫開發一種用於訓練人工智慧模型的內部晶片,他們將這款新型晶片取名為Meta訓練和推理加速器,簡稱MTIA(MTIA v1),將其歸類為加速人工智慧訓練和推理工作負載的“晶片家族”,並定計劃於2025年推出。這款客製化晶片採用開源晶片架構RISC-V,在類型上屬於ASIC專用積體電路。
巨頭自研晶片不順利
2023年OpenAI 大模型爆火以來,網路巨頭對AI晶片的需求一夜爆發,一時間重金難求一卡。為了避免受制於人,節省費用,各大巨頭紛紛宣布自研AI晶片。
亞馬遜似乎佔據了先機,已擁有兩款AI專用晶片——訓練晶片Trainium和推理晶片Inferentia;Google則擁有第四代張量處理單元(TPU)。相較之下,微軟、Meta等在很大程度上也依賴英偉達、AMD和英特爾等晶片製造商的現成或客製化硬體。
報導稱,微軟一直在秘密研發自己的AI晶片,代號雅典娜(Athena)。該晶片由台積電代工,採用5nm先進製程,計劃最早於2024年推出。MTIA的v1,字面性能也很強,採用台積電7nm製程工藝,運行頻率800MHz,TDP僅為25W,INT8整數運算能力為102.4 TOPS,FP16浮點運算能力為51.2 TFLOPS。
但從目前的進度來看,微軟、Meta的進度並不算快,微軟一直在訂購英偉達的晶片,Meta此次高調宣布購入35萬個H100,也表明,自身研發並不順利。
AI算力競爭是否再次展開
根據OpenAI測算,從2012年開始,全球AI訓練所用的計算量呈現指數成長,平均每3.43個月便會翻倍。2023年,各大廠對AI晶片的搶購,一度讓英偉達H100持續漲價缺貨。
根據研究機構Raymond James的分析師預測,每個英偉達H100晶片售價為25000至30000美元。以此價格範圍計算,Meta在這些晶片上的支出將至少接近百億美元。
Meta為何不羞於成本,斥資買入英偉達晶片。祖克柏在周四的文章中還表示,將把人工智慧投資與AR/VR驅動的元宇宙願景聯繫起來,並計劃推出Llama大型語言模型的下一個版本。
從上述表態可以看出,Meta的自身業務深入發展,需要算力的支持,這就是根本原因。
對於全球網路巨頭、科技公司來說,2024年的競爭已經開始,新的一輪算力競爭是否就此拉開序幕。