人工智能融入我們的生活,是十余年來線上世界最重大的變革。如今,數億人頻繁借助聊天機器人完成作業輔助、學術研究、編程開發乃至圖像視頻創作。但支撐這一切的能源代價究竟有多大?
近日,《麻省理工科技評論》發布的分析報告首次以空前詳實的視角,揭示了 AI 產業從單次查詢到整體規模的能耗真相。隨著人工智能用戶量即將突破每日數十億量級,這項研究不僅追蹤了行業當前的碳足跡現狀,更預判了其未來發展的環境影響軌跡。
2005 年至 2017 年間,盡管為支持從 Facebook 到 Netflix 等云端服務的崛起,大量新建數據中心拔地而起,但由于能效提升,數據中心的耗電量始終保持在平穩水平。而 2017 年后,AI 開始顛覆一切。為適配 AI 需求而建造的數據中心開始配備高能耗硬件,導致其電力消耗在 2023 年前翻倍。最新報告顯示,如今美國總電力的 4.4% 都被數據中心吞噬。
根據勞倫斯伯克利國家實驗室 2023 年 12 月發布的最新預測,到 2028 年,數據中心超過一半的電力將被用于 AI 運算。屆時,僅 AI 一項的年耗電量就可能達到全美 22% 家庭用電量的總和。
這項研究將從不同視角進行分析,包括模型的構建,不同 AI 任務(文本、圖片、視頻生成)的影響,以及能源選擇等。
數據中心:AI 能源需求的核心戰場
AI 模型的誕生始于數據中心的密集訓練階段。訓練如 GPT-4 這樣的模型需耗費上億美元和相當于舊金山三天用電量的能源,但真正的商業價值僅在后續的推理階段實現——當用戶通過提問或生成內容實際使用模型時,企業才能收回成本。目前,AI 高達 80-90% 的計算資源被用于推理,而非訓練。
美國現存的約 3,000 座數據中心正加速轉向 AI 專用化,但其建設規模與能效細節被科技公司嚴密保密。這一現象揭示了 AI 產業的核心矛盾:盡管訓練階段的技術突破吸引關注,但真正決定能源消耗與商業成敗的,卻是用戶日常使用中看不見的推理運算。隨著更多“黑箱式”AI 數據中心的擴張,能源效率與透明度將成為行業亟需解決的挑戰。
在每個數據中心,人工智能模型都被加載到包含 GPU 的服務器集群上,最著名的是英偉達制造的一種名為 H100 的特定型號。這款芯片于 2022 年 10 月開始發貨,此后銷量一路飆升。其他芯片包括 A100 和最新的 Blackwells。它們的共同點是,為了在不過熱的情況下運行其先進的功能,需要消耗大量的能源。
這些數據中心搭載數萬枚 GPU 芯片,運行時需精密冷卻系統,導致電纜損耗與水資源浪費(每日數百萬加侖)。2017 年 AI 硬件普及后,數據中心用電量至 2023 年翻倍,目前美國 4.4% 的能源流向數據中心,其碳強度比全國平均水平高 48%,凸顯 AI 對高碳能源的路徑依賴。
單次查詢的能耗差異:從文本到視頻的指數級跳躍
當前 AI 查詢的能耗評估面臨嚴重的信息不透明問題。與汽車油耗等標準化測量不同,AI 單次查詢的能耗差異可達數千倍,取決于模型類型、輸出內容、數據中心位置和供電來源等多重因素。主流閉源模型(如 ChatGPT、Gemini 等)將能耗數據視為商業機密,形成完全的黑箱系統。雖然研究人員通過開源模型(如 Meta 的 Llama)能測量部分硬件能耗,但整體評估仍存在重大缺口——GPU 能耗僅占全部設備(包括 CPU、散熱系統等)總耗電量的約 50%。更值得警惕的是,當前簡單的 AI 應用場景能耗已難以準確測算,未來隨著 AI 向自主智能體發展,能源需求還將呈指數級增長。
不同 AI 任務的能耗差異顯著。
文本模型:Meta 的 Llama 3.1 8B 模型單次響應僅需 114 焦耳總耗能,包含冷卻系統、其他計算等需求的耗能,相當于微波爐運行 0.1 秒所需的能量;而 Llama 3.1 405B 模型單次響應總能耗達 6,706 焦耳,相當于微波爐運行 8 秒。
值得注意的是,查詢復雜度也顯著影響能耗,簡單指令(如講笑話)的能耗可比復雜任務(創作)低 9 倍。此外,GPT-4 等閉源模型的真實參數量(預估超 1 萬億)和能耗數據仍處于不透明狀態,為行業能耗評估帶來挑戰。
與文本模型不同,圖像生成的能耗與提示內容無關,而是取決于模型參數量、圖像分辨率和擴散步驟數。測試顯示,Stable Diffusion 3 Medium 生成標準圖像(1024x1024 像素)約消耗 2,282 焦耳,提高畫質(50 步擴散)時能耗翻倍至 4,402 焦耳,但仍低于大型文本模型 Llama 3.1 405B 的 6,706 焦耳。這一反直覺現象源于圖像模型的參數量(20 億)遠少于頂級文本模型(4050 億),表明不能僅憑輸出形式判斷能耗高低。
AI 視頻生成的能耗呈現指數級增長,CogVideoX 新版模型生成 5 秒視頻的能耗(340 萬焦耳)較舊版暴增 30 倍,是圖像生成的 700 多倍。隨著模型支持更復雜功能(如視頻編輯和場景合成),能耗還將持續攀升。雖然 AI 公司聲稱比傳統影視制作更環保,但這一說法未考慮未來可能出現的視頻生成量爆炸式增長,實際環境影響仍存疑。顯而易見視頻生成正成為 AI 應用中最耗能的領域之一。
能源結構困境:化石燃料的短期依賴與轉型挑戰
AI 數據中心的碳排放問題與能源結構密切相關。當前美國近 60% 電力仍依賴化石燃料,且數據中心多集中在電網污染較重的地區(如弗吉尼亞州),導致其用電碳強度比其他地區平均水平高 48%。盡管科技公司承諾增加核能使用,但新建核電站需要數十年時間。研究顯示,同樣的 AI 請求在加州和西弗吉尼亞州產生的碳排放量可相差近一倍(650 克 VS 1150 克二氧化碳),凸顯了區域能源結構對 AI 環境影響的決定性作用。隨著 AI 能耗激增,清潔能源供應與數據中心布局的錯配問題正變得日益嚴峻。
目前,ChatGPT 等 AI 工具的日常查詢已消耗大量電力(如每年 109 吉瓦時),而隨著 AI 向個性化、多模態(如語音、圖像、視頻)和復雜任務(如推理、深度研究)發展,其能源需求將呈指數級增長。未來,AI 代理的普及和超大規模數據中心的建設可能進一步加劇能源挑戰。專家警告,當前的能耗數據僅揭示冰山一角,而 AI 的強制普及使人們在能源和氣候問題上難以做出知情選擇。這場 AI 革命的真正能源需求仍是一個亟待深入研究的課題。
未來的挑戰
勞倫斯伯克利國家實驗室的報告指出,到 2028 年,美國 AI 專用電力需求將升至 165-326 太瓦時/年,超過當前所有數據中心總用電量,可供應 22% 美國家庭,排放量相當于繞地球 12 萬圈或往返太陽 1,600 次。報告指出,AI 技術普及和服務器性能躍升是數據中心用電量在十年停滯期后激增的主因。2024-2028 年,美國數據中心用電占比或從 4.4% 增至 12%。
科技巨頭行動印證這一趨勢:軟銀、OpenAI、甲骨文和阿聯酋 MGX 計劃未來四年在美國投資 5,000 億美元新建數據中心;首座位于得州阿比林的數據中心已開工,含 8 個棒球場大小建筑。Anthropic 更建議美國 2027 年前新增 50 吉瓦專用電力;國際層面,OpenAI 在馬來西亞等地推動數據中心建設,聲稱要“推廣民主化 AI”,并通過核能、舊電廠重啟及電力公司合作解決能源問題。
《麻省理工科技評論》試圖聯系谷歌、OpenAI 和微軟詢問 AI 模型推理能耗細節,僅獲模糊回應:OpenAI 強調“效率優先”,微軟避談數據中心改造細節,谷歌僅提 TPU 芯片優化。勞倫斯伯克利團隊批評稱,企業數據不透明導致難以合理預測 AI 能源需求及排放。
更嚴峻的是,普通消費者可能通過電價上漲間接補貼 AI 基礎設施。
總而言之,AI 既被寄望解決氣候問題,但其自身卻成為高耗能產業;科技公司強調效率優化,卻對具體能耗三緘其口。隨著 AI 無孔不入地融入生活,這種“黑箱式擴張”正迫使社會承擔未知的能源與環境代價。
https://www.technologyreview.com/2025/05/20/1116327/ai-energy-usage-climate-footprint-big-tech/
特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.