英特爾、AMD、微軟、博通等科技巨頭組成產業小組UALink
英特爾、Google、微軟、Meta等八家科技巨頭正在建立一個新的產業小組,即超加速器連結(UALink)推廣小組,以指導資料中心內連接AI加速器晶片的元件的發展。
UALink推廣小組週四宣布成立,成員還包括AMD、惠普企業、博通和思科。該小組提出了一個新的行業標準,用於連接伺服器中越來越多的AI加速器晶片。廣義上講,AI加速器是從GPU到為加速AI模型的訓練、微調和運行而客製化設計的解決方案的晶片。
AMD資料中心解決方案總經理Forrest Norrod在周三的簡報中對記者表示:“行業需要一個可以快速推進的開放標準,在開放的[格式]中,允許多家公司為整個生態系統增加價值。”“行業需要一個標準,允許創新以不受任何單一公司束縛的快速步伐進行。
提議的標準的第一個版本,UALink 1.0,將在單一運算「pod」中連接多達1024個AI加速器——僅限GPU。 (該小組將pod定義為伺服器中的一個或幾個機架。)UALink 1.0基於“開放標準”,包括AMD的無限架構,將允許AI加速器附加的內存之間進行直接加載和存儲,並且與現有的互連規格相比,總體上將提高速度並降低資料傳輸延遲。
該小組表示,將在第三季創建一個聯盟,UALink聯盟,以監督UALink規範的未來發展。 UALink 1.0將在同期向加入聯盟的公司提供,更高頻寬的更新規範UALink 1.1,計劃在2024年第四季推出。
UALink的首批產品將在「未來幾年」推出,Norrod說。
明顯缺席該小組成員名單的是NVIDIA,它是迄今為止最大的AI加速器生產商,估計佔有80%到95%的市場份額。 NVIDIA拒絕對此發表評論。但不難看出為什麼這家晶片製造商不熱衷於支援基於競爭對手技術的規格。
首先,NVIDIA為其資料中心伺服器內的GPU提供了自己的專有互連技術。該公司可能不太願意支援基於競爭對手技術的標準。
然後是NVIDIA從巨大的實力和影響力位置運作的事實。
在NVIDIA最近一個財季(2025年第一季)中,包括其AI晶片銷售在內的資料中心銷售額比去年同期成長了400%以上。如果NVIDIA繼續目前的發展軌跡,它將在今年某個時候超過蘋果,成為世界上最有價值的公司。
因此,簡單來說,如果NVIDIA不想參與,它就不必參與。
至於亞馬遜網路服務(AWS),這是唯一沒有為UALink做出貢獻的公有雲巨頭,它可能處於「觀望」模式,因為它正在削減其各種內部加速器硬體努力。也可能是AWS,憑藉對雲端服務市場的控制,沒有看到反對NVIDIA的策略意義,NVIDIA為其客戶提供了大部分GPU。
AWS沒有回應TechCrunch的評論要求。
事實上,UALink的最大受益者——除了AMD和英特爾——似乎是微軟、Meta和Google,它們已經花費了數十億美元購買NVIDIA GPU來驅動它們的雲端並訓練它們不斷增長的AI模型。所有人都希望擺脫一個他們視為在AI硬體生態系統中過於主導的供應商。
Google擁有用於訓練和運行AI模型的客製化晶片,TPU和Axion。亞馬遜擁有幾個AI晶片家族。微軟去年加入了Maia和Cobalt的競爭。 Meta正在完善自己的加速器系列。
同時,微軟及其密切合作夥伴OpenAI據報道計劃至少花費1000億美元用於一台超級計算機,用於訓練AI模型,該計算機將配備未來的Cobalt和Maia晶片。這些晶片將需要一些東西將它們連接起來——也許它將是UALink。