Energy Use and AI
AI用電量有多驚人?行業大佬為什么不愿透露?
【連線雜志 6月22日報道】
越來越多的研究開始關注人工智能能源消耗問題,但那些開發熱門模型的公司,卻始終對自己的碳排放守口如瓶。
OpenAI CEO山姆·奧特曼(Sam Altman)在上周一篇長推文的旁注中寫道,“人們常常好奇,一次ChatGPT 查詢到底消耗多少能源?” 奧特曼表示,平均一次查詢大約消耗 0.34 瓦時的電量:“差不多相當于一個烤箱工作一秒多一點,或者一個高效節能燈泡點亮幾分鐘所用的量。
對于一家擁有8億周活躍用戶(且還在持續增長)的公司來說,這些搜索消耗多少能源,正變得越來越受公眾關注。但專家指出,奧特曼給出的數字,如果沒有OpenAI更多公開的信息支撐,其意義有限。比如,什么算是“一次平均查詢”?是否包括了圖像生成?奧特曼給出的數據是否涵蓋了訓練AI模型和為服務器降溫等額外能耗?
因此,AI公司Hugging Face的氣候負責人薩沙·盧奇奧尼(Sasha Luccioni)對奧特曼的數據并不太信服。她直言道,“奧特曼說的數字可能是隨便編的”(OpenAI沒有回應關于這個數字來源的更多信息請求)
人工智能正逐漸滲透到我們生活的方方面面,也有可能改變我們的能源系統。而就在我們努力應對氣候變化的緊要關頭,碳排放卻增加了。如今,越來越多的新研究正試圖用數據來量化我們在使用人工智能過程中到底排放了多少碳。
而該研究面臨的挑戰在于,像OpenAI這樣的主要企業幾乎不披露環境相關信息。Hugging Face的薩沙·盧奇奧尼和另外三位作者本周提交了一篇同行評審論文,探討了AI模型環境透明度的必要性。這篇論文分析道,盧奇奧尼和團隊利用OpenRouter(一個大型語言模型使用量排行榜)數據發現,2025年5月,84%的大型語言模型使用量來自于完全沒有環境信息披露的模型。這意味著,用戶絕大多數選擇了對環境影響完全未知的模型。
讓人感到震驚的是,你買輛車可以清楚知道它的油耗,但我們每天使用這么多人工智能工具,卻完全沒有任何效率指標、排放數據,什么都沒有。盧奇奧尼表示,“這不是法律要求,也沒有監管規定。但鑒于當前的氣候危機,這應該成為各地監管部門的重中之重。”
盧奇奧尼表示,正因為缺乏透明度,公眾接收到的一些估算數據完全不合理,卻信奉為事實。比如你可能聽過,一次普通的ChatGPT請求消耗的能量是一次普通谷歌搜索的10倍。盧奇奧尼和她的團隊追溯到這一說法,源自谷歌母公司Alphabet董事長約翰·海尼斯(John Hennessy)在2023年發表的公開言論。
一位來自谷歌董事會成員對另一家與他毫無關系的公司(OpenAI)所開發的產品所做的說法充其量也只是牽強附會。然而,盧奇奧尼的分析發現,這個數字在新聞報道和政策文件中被反復引用。
大家把一句隨口說的話當成了正式數據,甚至影響了政策和公眾對這些問題的看法。盧奇奧尼說道,“問題的關鍵是,我們根本沒有準確的數字。即使是那些簡單粗略的估算,也常被當作權威,但事實并非如此。”
想要更準確地了解實際情況,一種方法是借助開源模型。一些科技巨頭,比如OpenAI和Anthropic,將他們的模型設為專有,外部研究人員無法獨立核實其能耗。但也有公司會公開部分模型內容,讓研究人員能夠更準確地評估其排放情況。
周四發表在Frontiers of Communication 期刊上的一項研究評估了14款開源大語言模型,其中包括兩款Meta的Llama模型和三款DeepSeek模型。研究發現,在研究人員提交的問題測試中,有些模型的能耗比其他模型高出多達50%。研究人員向這些模型提交了1000個基準測試問題,內容涵蓋高中歷史和哲學等話題;其中一半的問題是多項選擇題,答案僅限于一個詞,而另一半則是開放式問題,允許更自由的格式和較長的回答。研究發現,推理型模型產生的“思考token”(即模型在生成答案時內部推理的計算量,也是能耗的重要指標)遠多于更簡潔的模型。也不奇怪,這些推理型模型在處理復雜問題時準確率更高。(不過它們在簡潔表達方面表現不佳:比如在多項選擇階段,盡管明確要求只從給定選項中作答,復雜模型往往會給出多個詞的答案。)
這項研究的第一作者、慕尼黑應用科學大學博士生馬克西米連·道納(Maximilian Dauner)表示,他希望人工智能的使用能夠朝著更高效的方向發展,根據不同的查詢自動選擇能耗更低的模型。他設想一個流程:對于較小、較簡單的問題,系統會自動調配給能耗較低但依然能給出準確答案的模型。即使是更小的模型,在處理簡單任務時也能取得很好的效果,而且不會在過程中排放大量二氧化碳。
一些科技公司已經開始這么做了。谷歌和微軟曾告訴《連線》雜志,他們的搜索功能在可能的情況下會使用更小的模型,這也意味著用戶能獲得更快的響應速度。但總體來說,模型提供商并沒有積極引導用戶使用更節能的模型。麻省理工學院氣候與可持續發展聯盟的計算與氣候影響研究員諾曼·巴希爾(Noman Bashir)表示,模型回答問題的速度對能耗影響很大,但在向用戶展示AI產品時,并沒有說明這一點。
巴希爾表示,“我們的目標是盡可能快地完成所有推理計算,這樣你就不會離開他們的平臺。如果ChatGPT要等五分鐘才給你答復,你肯定會轉向那些能立刻響應的工具。”
不過,在計算復雜人工智能查詢能耗時,還有很多其他因素需要考慮,因為這不僅是理論問題,運行查詢的環境也很關鍵。巴希爾指出,物理硬件在計算排放時會產生影響。道納的實驗是在英偉達(Nvidia) A100顯卡上進行的,但英偉達專門為人工智能設計的H100顯卡,按照該公司說法,越來越受歡迎,能耗也高得多。
談到碳排放,物理基礎設施也起著重要作用。大型數據中心需要冷卻系統、照明和網絡設備,這些都會額外增加能耗;它們通常按照晝夜周期運行,晚上查詢減少時會適當休息。數據中心還連接著不同類型的電網,有些主要依靠化石燃料供電,有些則依賴可再生能源,這取決于數據中心所在的地點。
巴希爾將那些在計算AI查詢排放時未考慮數據中心需求的研究比作只測量汽車車輪轉速的油耗測試,“你卻沒考慮到這個車輪還得承載整輛車和乘客。”
或許對我們了解人工智能排放影響最關鍵的是,道納研究中使用的開源模型,只占當今消費者所用AI模型的一小部分。訓練一個模型以及更新已部署的模型都消耗大量能源,而這些數據很多大公司都不愿公開。例如,OpenAI的奧特曼關于ChatGPT的“燈泡能耗”說法,是否包含了訓練支撐聊天機器人的模型所用的全部能源,目前尚不清楚。缺乏更多信息披露,公眾很難真正了解這項技術對地球造成了多大影響。
“如果我有一根魔法棒,我會強制要求所有在全球任何地方、任何應用場景下投入生產的人工智能公司,必須公開它們的碳排放數據,” 盧奇奧尼說。
編譯:崔 穎(新能源部)
審校:謝榕蓉(新能源部)
編輯:崔 穎(新能源部)
能源轉型與雙碳觀察
ENERGY TRANSITION
特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.