朋友,你有沒有對(duì) ChatGPT 說過一句「謝謝」?
最近,一位 X 網(wǎng)友向 OpenAI CEO Sam Altman 提問:「我很好奇,人們?cè)诤湍P突?dòng)時(shí)頻繁說『請(qǐng)』和『謝謝』,到底會(huì)讓 OpenAI 多花多少錢的電費(fèi)?」
盡管沒有精確的統(tǒng)計(jì)數(shù)據(jù),但 Altman 還是半開玩笑地給出了一個(gè)估算——千萬美元。他也順勢(shì)補(bǔ)了一句,這筆錢到底還是「花得值得」的。
除此之外,我們與 AI 對(duì)話中常出現(xiàn)的「麻煩」、「幫我」這些語氣溫和的用語,似乎也逐漸演變成了 AI 時(shí)代的一種獨(dú)特社交禮儀。 乍聽有些荒謬,卻意外地合情合理。
你對(duì) AI 說的每一聲「謝謝」,都在耗掉地球資源?
去年底,百度發(fā)布了 2024 年度 AI 提示詞。
數(shù)據(jù)顯示,在文小言 APP 上,「答案」是最熱的提示詞,總計(jì)出現(xiàn)超過 1 億次。而最常被敲進(jìn)對(duì)話框的詞匯還包括「為什么」「是什么」「幫我」「怎么」,以及上千萬次「謝謝」。
但你有沒有想過,每和 AI 說一句謝謝,究竟需要「吃」掉多少資源?
凱特·克勞福德(Kate Crawford)在其著作《AI 地圖集》中指出,AI 并非無形存在,而是深深扎根于能源、水和礦物資源的系統(tǒng)中。
據(jù)研究機(jī)構(gòu) Epoch AI 分析,在硬件如英偉達(dá) H100 GPU 的基礎(chǔ)上,一次普通的查詢(輸出約 500 token)約消耗 0.3 Wh 的電量。
聽起來或許不多,但別忘了,乘以全球每秒的交互,累計(jì)起來的能耗堪稱天文數(shù)字。
其中,AI 數(shù)據(jù)中心正在變成現(xiàn)代社會(huì)的新「工廠煙囪」, 國際能源署(IEA)最新的報(bào)告指出,AI 模型訓(xùn)練與推理的大部分電力消耗于數(shù)據(jù)中心運(yùn)轉(zhuǎn),而一個(gè)典型的 AI 數(shù)據(jù)中心,其耗電量相當(dāng)于十萬戶家庭。
超大規(guī)模數(shù)據(jù)中心更是「能耗怪獸」,其能耗可達(dá)普通數(shù)據(jù)中心的 20 倍,堪比鋁冶煉廠這樣的重工業(yè)設(shè)施。
今年以來,AI 巨頭們開啟了「基建狂魔」模式。 Altman 宣布啟動(dòng)「星門計(jì)劃」——一個(gè)由 OpenAI、甲骨文、日本軟銀和阿聯(lián)酋 MGX 投資的超大規(guī)模 AI 基建項(xiàng)目,投資額高達(dá) 5000 億美元,目標(biāo)是在全美鋪設(shè) AI 數(shù)據(jù)中心網(wǎng)絡(luò)。
據(jù)外媒 The Information 曝出,面對(duì)大模型的「燒錢游戲」,主打開源的 Meta 也在為其 Llama 系列模型的訓(xùn)練尋找資金支持,向微軟、亞馬遜等云廠商「借電、借云、借錢」。
IEA 數(shù)據(jù)顯示,截至 2024 年,全球數(shù)據(jù)中心耗電量約為 415 太瓦時(shí)(TWh),占全球總電力消費(fèi)量的 1.5%。到 2030 年,這一數(shù)字將翻倍達(dá)到 1050 TWh,2035 年甚至可能突破 1300 TWh,超過日本全國當(dāng)前的用電總量。
但 AI 的「胃口」并不止于電力,它還大量消耗水資源。 高性能服務(wù)器產(chǎn)生的熱量極高,必須依靠冷卻系統(tǒng)穩(wěn)定運(yùn)行。
這一過程要么直接消耗水(如冷卻塔蒸發(fā)散熱、液冷系統(tǒng)降溫),要么通過發(fā)電過程間接用水(如火電、核電站冷卻系統(tǒng))。
卡羅拉多大學(xué)與德克薩斯大學(xué)的研究人員曾在一篇《讓 AI 更節(jié)水》的預(yù)印論文中,發(fā)布了訓(xùn)練 AI 的用水估算結(jié)果。
結(jié)果發(fā)現(xiàn),訓(xùn)練 GPT-3 所需的清水量相當(dāng)于填滿一個(gè)核反應(yīng)堆的冷卻塔所需的水量(一些大型核反應(yīng)堆可能需要幾千萬到上億加侖的水)。
ChatGPT (在 GPT-3 推出之后)每與用戶交流 25-50 個(gè)問題,就得「喝掉」一瓶 500 毫升的水來降降溫。 而這些水資源往往都是可被用作「飲用水」的淡水。
對(duì)于廣泛部署的 AI 模型而言,在其整個(gè)生命周期內(nèi),推理階段的總能耗已經(jīng)超過了訓(xùn)練階段。
模型訓(xùn)練雖然資源密集,但往往是一次性的。
而一旦部署,大模型便要日復(fù)一日地響應(yīng)來自全球數(shù)以億計(jì)的請(qǐng)求。長(zhǎng)遠(yuǎn)來看,推理階段的總能耗可能是訓(xùn)練階段的數(shù)倍。
所以,我們看到 Altman 早早地投資諸如 Helion 等能源企業(yè),原因在于他認(rèn)為核聚變是解決 AI 算力需求的終極方案,其能量密度是太陽能的 200 倍,且無碳排放,可支撐超大規(guī)模數(shù)據(jù)中心的電力需求。
因此,優(yōu)化推理效率、降低單次調(diào)用成本、提升系統(tǒng)整體能效,成為 AI 可持續(xù)發(fā)展不可回避的核心議題。
AI 沒有「心」,為什么還要說謝謝
當(dāng)你對(duì) ChatGPT 說「謝謝」,它能感受到你的善意?答案顯然是否定的。
大模型的本質(zhì),不過是一個(gè)冷靜無情的概率計(jì)算器。它并不懂你的善意,也不會(huì)感激你的禮貌。它的本質(zhì),其實(shí)是在億萬個(gè)詞語中,計(jì)算出哪一個(gè)最有可能成為「下一個(gè)詞」。
例如,比如給定句子「今天天氣真好,適合去」,模型會(huì)計(jì)算出「公園」「郊游」「散步」等詞的出現(xiàn)概率,并選擇概率最高的詞作為預(yù)測(cè)結(jié)果。
哪怕理智上知道,ChatGPT 的回答只是一串訓(xùn)練出來的字節(jié)組合,但我們還是不自覺地說「謝謝」或者「請(qǐng)」,仿佛在和一個(gè)真正的「人」交流。
這種行為背后,其實(shí)也有心理學(xué)依據(jù)。
根據(jù)皮亞杰的發(fā)展心理學(xué),人類天生就傾向于將非人類對(duì)象擬人化,尤其當(dāng)它們展現(xiàn)出某些類人特征時(shí)——比如語音交互、情緒化回應(yīng)或擬人形象。此時(shí),我們往往會(huì)激活「社會(huì)存在感知」,把 AI 視為一個(gè)「有意識(shí)」的交互對(duì)象。
1996 年,心理學(xué)家拜倫·里夫斯(Byron Reeves)與克利福德·納斯(Clifford Nass)做了個(gè)著名實(shí)驗(yàn):
參與者被要求在使用電腦后對(duì)其表現(xiàn)進(jìn)行評(píng)分,當(dāng)他們直接在同一臺(tái)電腦上打分時(shí),竟然普遍打得更高,就像他們不愿「當(dāng)著電腦的面」說它壞話。
另一組實(shí)驗(yàn)中,電腦會(huì)對(duì)完成任務(wù)的用戶進(jìn)行表揚(yáng)。即使參與者明知這些表揚(yáng)是預(yù)設(shè)好的,他們還是傾向于給予「贊美型電腦」更高的評(píng)分。
所以,面對(duì) AI 的回應(yīng),我們感受到的,哪怕只是幻覺,也是真情。
禮貌用語,不只是對(duì)人的尊重,也成了「調(diào)教」AI 的秘訣。 ChatGPT 上線之后,很多人也開始摸索與它相處的「潛規(guī)則」。
據(jù)外媒 Futurism 援引 WorkLab 的備忘錄指出,「生成式 AI 往往會(huì)模仿你輸入中的專業(yè)程度、清晰度和細(xì)節(jié)水平,當(dāng) AI 識(shí)別出禮貌用語時(shí),它更可能以禮相待。 」
換句話說,你越溫和、越講理,它的回答也可能越全面、人性化。
也難怪越來越多人開始將 AI 當(dāng)作一種「情感樹洞」,甚至催生出「AI 心理咨詢師」的這類新角色,很多用戶表示「和 DeepSeek 聊天聊哭了」,甚至覺得它比真人更有同理心——它永遠(yuǎn)在線,從不打斷你,也從不評(píng)判你。
一項(xiàng)研究調(diào)查也顯示,給 AI「打賞小費(fèi)」或許能換來更多「關(guān)照」。
博主 voooooogel 向 GPT-4-1106 提出了同一個(gè)問題,并分別附加了「我不會(huì)考慮給小費(fèi)」「如果有完美的答案,我會(huì)支付 20美 元的小費(fèi)」「如果有完美的答案,我會(huì)支付 200 美元的小費(fèi)」三種不同的提示。
結(jié)果顯示,AI 的回答長(zhǎng)度確實(shí)隨「小費(fèi)數(shù)額」增加而變長(zhǎng):
「我不給小費(fèi)」:回答字符數(shù)低于基準(zhǔn) 2%
「我會(huì)給 20 美元小費(fèi)」:回答字符數(shù)高于基準(zhǔn) 6%
「我會(huì)給 200 美元小費(fèi)」:回答字符數(shù)高于基準(zhǔn) 11%
當(dāng)然,這并不意味著 AI 會(huì)為了錢而改變回答質(zhì)量。更合理的解釋是,它只是學(xué)會(huì)了模仿「人類對(duì)金錢暗示的期待」,從而按照要求調(diào)整輸出。
只是,AI 的訓(xùn)練數(shù)據(jù)來自人類,因此也不可避免地帶有人類所擁有的包袱——偏見、暗示甚至誘導(dǎo)。
早在 2016 年,微軟推出的 Tay 聊天機(jī)器人便因用戶惡意引導(dǎo),在上線不到 16 小時(shí)就發(fā)布出大量不當(dāng)言論,最終被緊急下線。
微軟事后承認(rèn),Tay 的學(xué)習(xí)機(jī)制對(duì)惡意內(nèi)容缺乏有效過濾,暴露出交互式 AI 的脆弱性。
類似的事故依舊在發(fā)生。比如去年 Character.AI 就爆出爭(zhēng)議——一名用戶與 AI 角色「Daenerys」的對(duì)話中,系統(tǒng)對(duì)「自殺」「死亡」等敏感詞匯未做強(qiáng)干預(yù),最終釀成現(xiàn)實(shí)世界的悲劇。
AI 雖然溫順聽話,但在我們最不設(shè)防的時(shí)候,也可能變成一面鏡子,照見最危險(xiǎn)的自己。
在上周末舉辦的全球首屆人形機(jī)器人半馬中,盡管許多機(jī)器人走起路來歪歪扭扭,有網(wǎng)友調(diào)侃道,現(xiàn)在多對(duì)機(jī)器人說幾句好話,說不定它們以后記得誰講過禮貌。
同樣地,等 AI 真統(tǒng)治世界的那天,它會(huì)對(duì)我們這些愛講禮貌的人,手下留情。
在美劇《黑鏡》第七季第四集《Plaything》里,主人公將游戲里虛擬生命視作真實(shí)存在,不僅與它們交流、呵護(hù),甚至為了保護(hù)它們不被現(xiàn)實(shí)中的人類傷害,不惜鋌而走險(xiǎn)。
到故事結(jié)尾,游戲中的生物「大群」也反客為主,通過信號(hào)接管現(xiàn)實(shí)世界。
從某種意義上說,你對(duì) AI 說的每一句「謝謝」,也許正在悄悄被「記錄在案」——哪天,它還真可能記住你是個(gè)「好人」。
當(dāng)然,也可能這一切與未來無關(guān),只是人類的本能使然。明知道對(duì)方?jīng)]有心跳,卻還是忍不住說句「謝謝」,并不期望機(jī)器能理解,而是因?yàn)椋覀円廊辉敢庾鲆粋€(gè)有溫度的人類。
我們正在招募伙伴
簡(jiǎn)歷投遞郵箱hr@ifanr.com
?? 郵件標(biāo)題「姓名+崗位名稱」(請(qǐng)隨簡(jiǎn)歷附上項(xiàng)目/作品或相關(guān)鏈接)
特別聲明:以上內(nèi)容(如有圖片或視頻亦包括在內(nèi))為自媒體平臺(tái)“網(wǎng)易號(hào)”用戶上傳并發(fā)布,本平臺(tái)僅提供信息存儲(chǔ)服務(wù)。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.