AI成為「耗電大戶」,除了新能源,還需要芯片創新
人工智能(AI)的爆炸式增長促使科技巨頭(包括 Google、Meta、亞馬遜和微軟等)開始構建超大規模數據中心,這些數據中心需要的電力非常多 —— 是以千兆瓦計算而不是兆瓦。有分析師表示,這些巨型數據中心使用現有的半導體技術來挑戰美國老化的電網基礎設施,以滿足其能源消耗需求。
例如,高盛估計僅對 ChatGPT 的一次查詢所消耗的數據中心電能就比語音識別等傳統人工智能功能多 10 倍,因此我們需要更強大的數據中心來支持這種需求。
如今,生成式 AI(GenAI)處于爆發階段,其參數量基本以億計算。但是,在運行時,例如基于 Transformer 的這類模型無法像單詞識別那樣被壓縮成小巧、快速的推理引擎。原因是它們不會返回簡單的單詞來響應用戶輸入,而是將用戶查詢與其龐大的神經網絡中的數萬億個示例進行比較。這些響應需要從完整的段落到整篇白皮書、甚至是關于查詢主題的整本書來查找。
市場調研公司 Tirias Research 創始人兼首席分析師 Jim McGregor 表示,「十年之后, 我們將需要更多的算力。一旦我們進入生成式 AI 大規模應用的階段,視覺內容創作的需求將非常龐大 —— 我們需要指數級提升數據中心的性能和功耗?!?nbsp;
為了支持當前聊天級別的生成式 AI,Tirias 最新報告預測,美國數據中心的能源消耗將從現在的 1.4 太瓦時(TWh)增加到 2028 年的 67 太瓦時。高盛估計,如果將傳統 AI 加入生成式 AI 的能耗計算,預計在同一時間段內數據中心能耗的增長會翻倍,結果是 AI 消耗大約占據數據中心總能耗的 19%,約占全美電網總發電量的 4%。
高盛評估報告顯示,滿足電網能源消耗強勁增長的方法是將電網的發電方式從燃煤發電轉變為 60% 天然氣 和 40% 可再生能源 (主要是太陽能和風能)發電。
報告地址:https://www.goldmansachs.com/pdfs/insights/pages/generational-growth-ai-data-centers-and-the-coming-us-power-surge/report.pdf
為了防止電網過載,市面上已經出現了使用核電發電機為超大規模數據中心提供專用電力的趨勢,這些發電機被稱為小型模塊化反應堆(SMR)。
實際上,亞馬遜已經從電力生產商 Talen Energy 購買了一個接近 1 吉瓦容量的核電數據中心園區。
與此同時,微軟正試圖通過投資無核廢料聚變反應堆(與 Helion 合作)來超越 SMR 等裂變反應堆。
McGregor 表示:盡管當今的超大規模數據中心仍在使用現有的半導體技術和架構,但創新將長期受到能耗無限增長的限制?,F階段節能減排方面的創新令人驚嘆,這種創新可與半導體行業的起步相媲美,而且在許多方面甚至增長速度更快。如果技術停滯不前,那么到本世紀末,我們將耗盡可用能源。
根據 Tirias 對 GenAI 的預測,數據中心使用低功耗混合 CPU/GPU 的 AI 加速器的數量將從目前的 362000 臺增長到 2028 年的 1760 萬臺。
用創新來解決危機
生成式 AI 對能源的需求越來越大,各類廠家開始研制更低功耗的芯片。
英偉達研發了 CPU/GPU 混合芯片;AMD 贏得了 2022 年 Green500 超級計算機排名的冠軍。
Cerebras 公司在自家芯片的頂部安裝了一個水冷金屬冷板,可以實現更有效地散熱。
其他芯片制造商也在用節能的混合多芯片堆棧加速下一代數據中心處理器。此外,英特爾、三星和臺積電 (TSMC) 正在研發用于下一代處理器的 3D 堆疊晶體管,這種晶體管在大幅提高性能的同時還節省了功耗。
半導體架構師也開始將整個數據中心重新視為一個單一系統(如混合片上系統),投資可持續、更節能的架構,例如將整個數據中心的機架改用水冷(而不是風冷)。
McGregor 表示,未來的數據中心還將利用多種能源之間的快速切換策略,包括太陽能、風能、天然氣、地熱、電網和核反應堆。
「人工智能的普及造成了一場能源危機,但并不是無法解決的危機。在我看來,所有這些危機論調中,最有趣的一點是,每當一項新技術開始普及時,危機論調就會一再出現 —— 危機預測者只是從現有技術進行推斷,而沒有考慮到創新解決方案,例如,在 20 世紀 90 年代,互聯網開始快速發展,我們曾預測全球一半的電力將被互聯網消耗。發生了什么?創新能夠跟上需求。當比特幣起飛時,同樣大規模的危機論調再次出現,但它也失敗了,現在我們聽到的是關于人工智能發展的同樣危機論調?!拱雽w市場研究公司 Objective Analysis 的經理 Jim Handy 表示道。