所謂AI革命,到目前為止,是能源的一場“災難”
6月底,Google新一代開源模型Gemma2發布,相較於今年稍早推出的輕量級開源模型Gemma,Gemma2有了90億(9B)和270億(27B)兩種參數規模可用。就在Google摩拳擦掌準備與OpenAI一較高下時,前幾天其發布的一份報告卻引來了媒體的「擔憂」——谷歌最新發布的環境報告指出,自2019年以來,其溫室氣體總排放量增加了48%。
光是去年Google就產生了1,430萬噸二氧化碳,年比2022年成長13%,主要由於來自範圍2的碳排放量年增37%。
這些數據顯然與Google「2030年實現零排放」的目標南轅北轍了,作為全球最大的互聯網科技巨頭之一,如此「奔放」的碳排放數據顯然會為其招來各種非議。
為何碳排放大增?
在Google發布的環境報告中,將碳排放量激增歸因於資料中心的能源的使用和供應鏈排放的增加。自從網路誕生以來,資料中心一直是高能耗的代表,而今用於訓練人工智慧的資料中心更是如此。
Google在報告中表示:「隨著我們進一步將人工智慧融入產品中,減少碳排放變得更具有挑戰性,因為人工智慧運算強度的提高導致能源需求增加,而基礎設施投資的增加也會導致碳排放增加。
根據報告數據顯示,Google僅數據中心的用電量在2023年就成長了17%,預計這一「趨勢」將在未來持續下去。
實際上,Google的碳排放已經是「極力優化」的結果了,報告指出截至2023年底,Google連續七年實現100%可再生能源消耗,並藉此在2023年實現了63%的碳排放減少。
圖源:Google 2024環境報告
在此基礎上,碳排放之所以仍大幅成長,主要是因為資料中心耗能太大,但再生能源有限,無可奈何。
報告原文指出,Google已經努力在全球實現100%可再生能源匹配的目標,但GHG協議為能源採購確立了範圍以減少範圍2的排放。這就導致在某些地區我們購買的清潔能源比我們的電力消耗量更多(例如歐洲),但在其他地區(如亞太地區)由於清潔能源採購具備一定挑戰,導致採購不足。這之間的差異是範圍2碳排放統計增加的原因。
圖源:Google2024 環境報告
總而言之,Google想表達的無非是“我很努力,但在AI革命的浪潮下無計可施”,頗有一種“發展才是硬道理的意思”。
的確,以如今AI爆發的勢頭,如果讓能源卡了自己的脖子,導致大模型落後於OpenAI,以至於丟了人工智能時代的“船票”,那可不是谷歌願意看到的結果。
雖然Google在報告中給出了後續解法,例如正在努力提高其人工智慧模型、硬體和資料中心的能源效率,以及計劃到2030 年實現24/7全天候無碳能源(CFE)這一終極目標。但隨著人工智慧的不斷發展,大模型的不斷迭代,Google需要的能耗依然是只會多不會少。
未來,Google大機率將持續面對來自公眾及媒體關於氣候議題的壓力。
AI何以成為「吃電狂魔」?
Google並不是唯一一家碳排放不斷增加的科技公司。
今年5月,微軟透露自2020年以來,其二氧化碳排放量增加了近30%。而為OpenAI提供大量運算的雷德蒙德也將排放量的增加歸咎於其雲端運算和人工智慧業務部門的資料中心設施的建置和配置。
可以說,正在自己開發大模型的網路科技公司幾乎都有「能耗/碳排放量龐大」的問題。
大模型究竟有多耗電?靈碳智慧創辦人李博傑告訴虎嗅,根據推測,以GPT-4為例,其訓練使用了25000張a100,並花了90-100天進行訓練,預計總耗電量在51,000mwh – 62,000mwh左右。
而一戶普通人家一年的用電量大概在1000kwh左右,因此全部訓練耗能相當於5萬戶人家一年的用電量;同時,此耗電量相當於三峽大壩一年發電量(以一年發電1000億度計算)的0.05%,發電側使用的水量約為2.3億立方公尺(三峽電站標準)。
從使用側來看,1次GPT-4查詢估計消耗約0.005 kwh。根據OpenAI公佈的數據,GPT每天在全球有數億次查詢,保守估計每天消耗的電量為1gwh。
以一戶一般人家一年用電1000kwh算,每天模型推理耗能相當於1000戶人家一年的用電量;若按年計算,OpenAI消耗的能源在90-200gwh左右,相當於三峽大壩一年發電量(以一年發電量1000億度計算)的0.2%,發電側使用的水量約為9億立方公尺(三峽電站標準)。
荷蘭科學家亞歷克斯·德弗里斯也在他的論文中指出,到2027年,AI耗電量或將接近人口超過1000萬的瑞典或1700萬人口的荷蘭一年的總用電量,相當於目前全球用電量的0.5%。
一筆帳算完堪稱恐怖,也怪不得黃仁勳與山姆·奧特曼都會喊出「未來AI的技術取決於能源」這一論調了。
一個很重要的問題是,為什麼人工智慧大模型如此耗能?
從技術原理的角度來看,李博傑認為主要有4點原因:
- 目前主流的LLM模型採用了基於transformer架構的深度神經網路演算法,這種架構的演算法透過自註意力機制處理數據,並考慮序列的不同部分或句子的整個上下文,從而產生對模型結果的預測。市面上先進的LLM通常包含了萬億級的參數,參數越多,模型複雜度越高,訓練時的計算量就越大。
- 模型訓練的基礎資料(如大規模語料庫)的儲存、處理都需要消耗大量的能源。
- 目前的LLM都採用了並行化的方式進行運算,所以對高效能的GPU叢集有著大量的要求。高效能的GPU的運作不僅消耗大量的能源,同時也對冷卻系統提出了很高的要求。
- LLM的推理階段,使用者每一次查詢都涉及能源的消耗。
這些因素共同導致了人工智慧大模型在訓練和推理過程中會消耗大量能源。
而當下巨頭混戰大模型的背後,映射的也是全球能源消耗的大增。根據國際能源總署的數據,2022年美國2,700個資料中心消耗了全國總電力的4% 以上;到2026年,全球資料中心的電力消耗可能會翻倍。
隨後,高盛在2024年4月的一項分析預測,至本世紀末全球資料中心的用電量將增加1.8倍至3.4倍。
華盛頓郵報則是直接指出,不斷飆升的用電需求引發了人們的爭奪,試圖從老化的電網中榨取更多的電力。但據美國能源資訊署數據顯示,2023年,美國全口徑淨發電量為41,781.71億度時,較前一年下降1.2%。近十年來,美國的全年淨發電量一直在40,000億千瓦時的邊緣徘徊。
圖源:華盛頓郵報
無可否認,能源危機(主要是電力)已近在眼前,且很可能成為限制AI發展的關鍵因素。
高能耗還得持續下去
AI要發展必須維持這樣的高能耗嗎?
比爾蓋茲曾經在接受媒體採訪時表示不用擔心,因為人工智慧雖然消耗能源,但技術會進步,未來的能耗會持續下降。
但關鍵問題在於,當下大模型的訓練是否有終點?
在第六屆北京智源大會上,楊植麟、王小川等4位大模型CEO就AGI的實現進行了一次交流,4位CEO的共識是AGI太遙遠,只有模型降價最能推動現實落地。
李博傑也認為,即便是算力一直無限增加,按照目前主流大模型的技術路線,不會達到理想的AGI階段:「AGI代表了AI演算法擁有類似人腦的思考模式。目前深度神經網路只是對人腦運作時的電訊號傳播的一種簡化模擬。等多個不同的訊號運輸和調節機制。
從另一個角度講,語言只是人類意識的其中一個維度映射,在這個過程中存在大量的資訊損失和扭曲。人類在認識世界的過程中,也包含了視覺、聽覺、觸覺、嗅覺、味覺等多個不同面向。同時,人類自身的運動學習,情緒,社會化的行為和自我意識都是AGI的重要組成部分。
「真正的AGI智能,一定是低能耗的,不過在探索的過程中,會消耗大量的能源,能源消耗是人類社會的終極問題,」李博傑表示:「從可以預測的未來看,能耗問題給人工智慧發展帶來的最大的問題是加速全球社會的不平等。
如今,業界雖然正在嘗試解決AI高耗能的問題,例如透過模型的壓縮和蒸餾、更高性價比的專用AI晶片和硬體架構等等,但未來高能耗也將維持一段不短的時間。
就如同科技的發展是螺旋上升的過程,AGI的實現也需要依賴各種學科的同步發展。當下能夠期盼的是,假如大模型演算法有盡頭,希望當我們走到盡頭時,AI能夠帶來真正的生產力革命吧。