近日,美國科技公司OpenAI的首席執行官薩姆·奧爾特曼在社交平臺上透露了一個令人意外的現象:用戶在與ChatGPT互動時頻繁使用“請”“謝謝”等禮貌用語,這一行為竟然導致公司每年需額外承擔數千萬美元的運營成本。
這一消息引發了廣泛討論,人們不禁好奇,為何簡單的禮貌寒暄會帶來如此高昂的成本?
禮貌寒暄背后的成本
根據《今日美國》及美國《石英》雜志的報道,當用戶在ChatGPT的用戶界面說“謝謝”時,大模型會按照算法回復“不客氣”。然而,這一簡單的寒暄需要調用大量的電力和算力進行實時回復,OpenAI的運營成本因此大幅增加。
美國加州大學河濱分校的一項研究進一步佐證了這一點。研究表明,AI運行不僅耗費電力,還需要大量的水來冷卻數據中心的服務器。以“ChatGPT-4”大模型為例,每生成100個單詞最多消耗1500毫升冷卻水,而回復“不客氣”需耗費約44毫升水。
如果全球數十億用戶每天都進行類似的交互,這一資源消耗可能對區域性水資源分配造成潛在壓力。
禮貌寒暄的原因分析
分析認為,用戶對AI如此“客氣”的行為,可能受到了一些影視劇的影響。例如,在《2001太空漫游》等科幻電影中,人類對AI的苛待導致AI失控和叛變的劇情,讓用戶更愿意以友好態度與AI互動。
此外,研究表明,更禮貌的對話可能提升AI回復的積極性,形成更頻繁的“人機對話循環”,從而導致相關資源的消耗頻率更高。
盡管成本上升,但奧爾特曼仍開玩笑稱,這筆運營成本“物有所值”。他認為,禮貌的互動能夠提升用戶體驗,增強用戶對AI的信任感,從而推動技術的更廣泛應用。
OpenAI成本上升的深層次原因
然而,上述兩篇報道均指出,OpenAI的運營成本增高并不能完全歸咎于禮貌用語。大模型對話交互行為本身的能耗過大才是根本問題。隨著ChatGPT用戶突破10億,其運營的邊際成本疊加才是最核心的挑戰。
面對高昂的運營成本,OpenAI正在采取一系列措施來優化資源利用率。一方面,公司正在通過技術升級來提高模型的效率,減少不必要的能耗。另一方面,OpenAI也在探索跨領域合作,通過與其他機構合作,共同分擔資源消耗的壓力。
OpenAI的這一現象也提醒我們,AI技術的發展不僅僅是技術問題,還涉及到用戶行為、資源消耗和社會影響等多方面的考量。隨著AI技術的廣泛應用,如何在提升用戶體驗和降低運營成本之間找到平衡,將是未來AI行業發展的重要課題。
特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.