谷歌推出第五代AI芯片:訓練和運行AI模型的速度提高5倍
Google第五代定制張量處理器(TPU)芯片TPU v5e用於大模型訓練和推理,訓練和運行AI模型的速度提高了5倍。當地時間8月29日,Google在舊金山的年度雲會議Google Cloud Next上發布了新的人工智能芯片,即第五代定制張量處理器(TPU)芯片TPU v5e,用於大模型訓練和推理。與上一代芯片相比,TPU v5e每一美元的訓練性能提高2倍,每一美元的推理性能提高2.5倍。
TPU是Google為神經網絡設計的專用芯片,TPU經過優化可加快機器學習模型的訓練和推斷速度,2016年推出第一代TPU,2021年發布第四代定制處理器TPU,2022年面向開發者提供。雲TPU(Cloud TPU)是一項Google雲服務,適合訓練需要進行大量矩陣計算的大型複雜深度學習模型,例如大語言模型、蛋白質折疊建模和藥物研發等,幫助企業在實現AI工作負載時節省資金和時間。
此次推出的TPU v5e專為中大型模型訓練和推理所需的成本效益和性能而構建。Google雲表示,該版本芯片的開發重點是效率,與上一代TPU v4相比,TPU v5e每一美元的訓練性能提高2倍,每一美元的推理性能提高2.5倍,而成本不到TPU v4的一半,使得更多組織能夠訓練和部署更大更複雜的AI模型。客戶不需要通過犧牲性能或靈活性來獲得這些成本效益。Google雲將TPU v5e描述為“超級計算機”,最多允許256個芯片互連,總帶寬超過400 Tb/s,支持八種不同的虛擬機配置,客戶可選擇合適的配置服務於各種大語言模型和生成式AI模型。根據速度基準測試,在TPU v5e上訓練和運行AI模型時速度提高了5倍。
據科技媒體TechCrunch報導,Google雲計算和機器學習基礎設施副總裁兼總經理馬克·洛邁爾(Mark Lohmeyer) 表示,“這是迄今為止最具成本效益且易於訪問的雲TPU。” 洛邁爾強調,Google雲確保用戶能夠將其TPU集群擴展到以前無法達到的水平,讓客戶能夠輕鬆擴展他們的人工智能模型,超越單個TPU集群的物理邊界。也就是說,單個大型人工智能工作負載可以跨越多個物理TPU集群,擴展到數万個芯片,並且經濟高效。“在雲GPU和雲TPU方面,我們為客戶提供了很多選擇和靈活性,以滿足我們看到的人工智能工作負載的廣泛需求。”
除了新一代TPU,Google雲還宣布將在下個月推出基於英偉達H100 GPU的A3系列虛擬機,作為GPU超級計算機進行交付,為人工智能大模型提供動力。