ChatGPT的環境成本究竟有多大?
號稱史上最強AI的ChatGPT知道自己每天排放多少二氧化碳嗎?一番溝通後,華爾街見聞得到了否定的答案。看來暫時只能由人腦來替它回答了。環球零碳研究中心研究員唐淑姝告訴華爾街見聞,如果粗略合算ChatGPT的總生命週期碳足跡,自2022年11月30日運行60余天來,其製造設備碳排放超過33.41噸,模型訓練碳排放超過552噸,運行60天碳排放約為229.2噸;三者相加,ChatGPT上線後的碳排放超過814.61噸。
要想從大氣中吸收這些二氧化碳,相當於需要栽種超過6.5萬棵樹。
雖然“虛擬”的屬性讓人們容易忽視數字產品的碳賬本,但事實上,互聯網卻無疑是地球上最大的煤炭動力機器之一。
訓練機器成碳排“大戶”
聊天機器人、數字助理以及來自流媒體服務的電影和音樂推薦都依賴於“深度學習”——一種訓練計算機模型以識別數據模式的過程。
這種訓練需要強大的計算機和大量的能量支撐。對於ChatGPT全生命週期的碳足跡數據,這個階段是名副其實的排放大戶。
最精細的深度學習模型之一,目標就是產生類似人類的語言。在ChatGPT問世前,OpenAI公司先開發了一套複雜的自然語言模型,命名為GPT-3。ChatGPT和GPT-3都是在大量文本數據上訓練而成的,允許它們對文本輸入產生類似人類的響應,但由於後者專門為會話任務而設計,GPT-3則更通用一些,所以參數庫要小100多倍。
“ChatGPT是基於GPT-3的一個升級版本,在GPT-3的模型架構基礎上又進行了優化並在訓練時期增加了強化學習。”唐淑姝對華爾街見聞分析,“所以要估算ChatGPT在訓練階段的碳排,可以參考GPT-3的排放值。”
有數據顯示,當時訓練GPT-3 消耗了1287MWh,排放出552噸溫室氣體。
“GPT-3 的大量排放可以部分解釋為它是在較舊、效率較低的硬件上進行訓練的,但因為沒有衡量二氧化碳排放量的標準化方法,這些數字是基於估計,另外,這部分碳排放值中具體有多少應該分配給訓練ChatGPT,標準也是比較模糊的,需要注意的是,由於強化學習本身還需要額外消耗電力,所以ChatGPT在模型訓練階段所產生的的碳排放應該大於這個數值。”可持續數據研究者卡斯帕-路德維格森如是分析。
僅以552噸排放量計算,這些相當於126個丹麥家庭每年消耗的能量。
運行階段的碳成本
用戶在操作ChatGPT時的動作耗電量很小,但由於全球每天可能發生十億次,累積之下使其成為了第二大碳排放來源。
唐淑姝對華爾街見聞表示,可以將另一個大型語言模型BLOOM作為類比來推測ChatGPT運行階段的碳排放。BLOOM曾在具有16個NVIDIA A100 40GB GPU的Google Cloud Platform實例上部署並運行了18天,共432小時。
“BLOOM與ChatGPT前身GPT-3的模型大小大致相同,假設把相同的硬件用於ChatGPT,並在16個NVIDIA A100 40GB GPU上運行,並推測硬件利用率始終為100%,”唐淑姝通過使用ML CO2 Impact計算機,估算出ChatGPT的每日碳排放為25.92 kg。
Databoxer聯合創始人克里斯·波頓則解釋了另一種計算方法。
“首先,我們估計每個響應詞在A100 GPU上需要0.35秒,假設有100萬用戶,每個用戶有10個問題,產生了10000000個響應和每天300000000個單詞,每個單詞0.35 秒,可以計算得出每天A100 GPU運行了29167個小時。”
Cloud Carbon Footprint列出了Azure數據中心中A100 GPU的最低功耗46W和最高407W,由於很可能沒有多少ChatGPT處理器處於閒置狀態,以該範圍的頂端消耗計算,每天的電力能耗將達到11870kWh。
“美國西部的排放因子為0.000322167 噸/kWh,所以每天會產生3.82噸二氧化碳當量,美國人平均每年約15噸二氧化碳當量,換言之,這與93個美國人每年的二氧化碳排放率相當。”克里斯·波頓說。
Ai的能源賬
依據唐淑姝的觀點,從全生命週期角度看還應該包含ChatGPT在製造階段的隱性碳排。仍以BLOOM作為參照,訓練總時間共持續108萬小時,平均使用48個計算節點上的384個GPU,可以估計與模型訓練相關的服務器隱含碳排放大約為7.57噸和GPU3.64噸,總計約11.2噸。
“ChatGPT的訓練時間大約比BLOOM長3倍,單從這個角度估算,估算ChatGPT中模型訓練的隱含碳排放總量約為33.6噸。”唐淑姝對華爾街見聞解釋道。
事實上,學界對於人工智能與環境成本的關係頗為關切。伯克利大學關於功耗和人工智能主題的研究認為,人工智能幾乎吞噬了能源。
比如Google的預訓練語言模型T5使用了86兆瓦的電力,產生了47公噸的二氧化碳排放量;Google的多輪開放領域聊天機器人Meena使用了232兆瓦的電力,產生了96公噸的二氧化碳排放;Google開發的語言翻譯框架-GShard使用了24兆瓦的電力,產生了4.3公噸的二氧化碳排放;Google開發的路由算法Switch Transformer使用了179兆瓦的電力,產生了59公噸的二氧化碳排放。
深度學習中使用的計算能力在2012年至2018年間增長了300000倍,這讓GPT-3看起來成為了對氣候影響最大的一個。然而,當它與人腦同時工作,人腦的能耗僅為機器的0.002%。
據估計,全球科技行業佔全球溫室氣體排放量的1.8% 至3.9%。儘管這些排放量中只有一小部分是由人工智能和機器學習引起的,但人工智能的碳足跡對於技術中的單個領域來說仍然非常高。
發表於Nature的一項計算碳成本的研究揭示了與人工智能相關的碳足跡在各種雲計算數據中心訓練一系列模型。結果表明,在美國中部或德國的數據中心訓練BERT(一種常見的機器學習語言模型)會排放22-28公斤二氧化碳。這是在挪威(大部分電力來自水力發電)或在主要依賴核能的法國進行相同實驗產生的排放量的兩倍多。
而一天中進行實驗的時間同樣重要。例如,在美國華盛頓州,當該州的電力僅來自於水力發電時,在夜間訓練人工智能導致的排放量低於在白天訓練,因為那時的電力來自於燃氣站。
通過更好地了解AI系統消耗了多少能源,或許有助於人類權衡做出在污染和成本之間的更優選擇。