到2029年,人工智能將消耗世界1.5%用電量
生成式人工智能(GenAI)將占據全球更大的電力消耗,以滿足運行應用程序的龐大硬件需求。半導體研究公司TechInsights上個月在一份研究報告中表示:“未來五年,人工智能加速器將消耗全球2318太瓦時的電力,將占全球用電量的1.5%,占全球能源的很大一部分。”
TechInsights對2025年至2029年間全球總用電量進行了基線測量,數據來自美國能源情報署。該測量是基于每個GPU使用700瓦的功耗,這是英偉達旗艦Hopper GPU的功耗。英偉達即將推出的名為Blackwell的GPU速度更快,但功耗為1200瓦。
TechInsights的假設僅包括芯片消耗的功率,不包括存儲、內存、網絡和用于生成式人工智能(GenAI)的其他組件的功耗測量。
TechInsights分析師Owen Rogers在一份研究報告中表示:“考慮到對GPU容量的巨大需求,以及為這些昂貴資產提供回報的需要,如此高的利用率是可行的。”
麥肯錫的一項人工智能調查顯示,65%的受訪者打算采用GenAI。
為了滿足需求,云提供商和超大規模廠商正在投資數十億美元來增加GPU的數量。微軟依靠英偉達的GPU來運行其人工智能基礎設施,而Meta聲稱將擁有一個相當于“近60萬個H100”GPU的計算環境。
根據TechInsights的數據,英偉達在2023年的GPU出貨量約為376萬顆,高于2022年的約260萬顆。
去年,Gartner對電力消耗做出了更為激進的預測,稱人工智能“可能消耗全球3.5%的電力”。Gartner的方法尚不清楚,但可能包括網絡、存儲和內存。
人工智能競賽的特點是公司提供最快的基礎設施和更好的結果。在商業中應用人工智能的熱潮打亂了長期建立的企業可持續發展計劃。
微軟(Microsoft)、谷歌(Google)和亞馬遜(Amazon)正斥資數十億美元,建設配備GPU和人工智能芯片的巨型數據中心,以訓練和服務更大的模型,這進一步增加了電力負擔。
成本挑戰
Rogers在研究報告中說,服務器可以花2萬美元購買,但企業需要考慮到不斷增長的電力成本和能源網絡面臨的挑戰。數據中心還需要設計成能夠處理人工智能的電力需求。這種需求可能取決于電網容量和備用電力容量的可用性。能源公司也有責任為人工智能時代做好準備,建立發電站、太陽能農場、輸電線路等電力基礎設施。
“如果需求無法滿足,能源供應商將采取基于市場的方法來管理產能,即提高價格以減少消耗,而不是拒絕產能。這樣,可能會對人工智能技術的用戶產生成本影響。”Rogers說。
美國政府的第一個目標是到2035年生產100%的清潔能源,這將減輕電網的負擔。這也將為更多的人工智能數據中心打開大門。
有效利用能源
人工智能消耗的電力側面反映了加密貨幣挖礦給電網帶來的負擔。根據美國能源情報署2月份發布的一份報告,加密貨幣挖礦約占美國用電量的2.3%。然而,能源行業觀察人士一致認為,與比特幣挖礦相比,人工智能是一種更有效的能源利用方式。
英偉達的人工智能重點還在于有效利用能源。為了降低能耗,英偉達的GPU采用了自己的芯片技術。該公司正在將散熱技術從空氣冷卻改為液體冷卻。
英偉達超大規模和高性能計算業務副總裁兼總經理Ian Buck在上個月的一次投資者活動上表示:“這里的機會……是幫助他們通過一個固定的兆瓦級數據中心,以盡可能低的成本獲得最大性能。”
高性能計算提供商、人工智能和可持續性
在最近的ISC 24超級計算會議上,小組成員取笑英偉達,聲稱其1000瓦的GPU是“可持續的”。
政府實驗室還表示,GPU和直接液體冷卻比過去的CPU提供了更好的性能擴展。美國勞倫斯利弗莫爾國家實驗室正在建造即將到來的2百億億次超級計算機“酋長”(El Capitan),該實驗室將冷卻能力增加了18,000噸,提高到28,000噸,并將當前和未來系統的電力供應提高到85兆瓦。
LLNL首席技術官Bronis de Supinski在一個分組討論會上表示:“El Capitan…耗電量將低于40兆瓦,約為30兆瓦,但這仍是很大的電力。”
他承認,El Capitan超級計算機可能不被認為是環保的,但重點也應該放在性能-功率范圍內取得的成果上。例如,如果一臺超級計算機能夠解決氣候問題,那么它所消耗的能量可能是值得的。
“一臺30兆瓦的超級計算機?我不會告訴你這是一種可持續的資源,但它可以做很多事情來解決我們想要解決的社會問題,” Supinski說。
實驗室也在轉向可再生能源和液體冷卻。例如,LRZ的主席Dieter kranzlller在ISC 24會議上表示,液體冷卻“節省了大約50%的冷卻能源”。
在可持續計算環境中,碳中和、捕獲和再利用廢熱以及材料再利用也被考慮在內。
HPC的過去驅動未來
讓超級計算機更節能的努力現在被用來更好地利用人工智能處理中消耗的每一瓦特能源。
在上個月的惠普Discover大會上,惠普首席執行官 Antonio Neri表示,公司正在將Frontier和El Capitan中使用的能效技術移植到搭載英偉達GPU的人工智能系統中。“惠普擁有世界上最大的水冷制造能力之一。為什么?因為我們必須為超級計算機做這件事。”英偉達首席執行官黃仁勛也在臺上稱:“液體冷卻的未來將帶來更好的性能、更低的基礎設施成本和更低的運營成本。”
終端人工智能
消費設備制造商正在兜售帶有人工智能神經芯片的個人電腦和其他移動設備終端。神經芯片可以在本地運行人工智能模型,減少云計算中GPU的壓力。
蘋果提供了其設備上和云上人工智能戰略的完整愿景——如果iPhone或Mac確定無法在設備上完成人工智能任務,它會將查詢重新路由到蘋果數據中心的云服務器。蘋果用戶還可以選擇是在設備上運行人工智能還是通過云運行。
微軟鼓勵在Windows設備中使用人工智能芯片。高通的AI Hub允許用戶運行基準測試,以了解AI模型在設備上的運行情況。這可以讓用戶決定是在設備上運行推理還是在云中運行。然而,目前還沒有針對個人電腦的人工智能殺手級應用程序,可以讓個人電腦將人工智能的壓力從云端的GPU轉移下來。