通信世界網消息(CWW)人工智能(AI)領域正經歷深刻變革,核心驅動力之一是DeepSeek等大語言模型(LLM)的成熟與廣泛應用。這些模型在展現強大能力的同時,也推動市場算力需求發生巨變。過去,AI算力的投入高度集中于模型預訓練階段,訓練千億或萬億參數規模的AI模型需要消耗海量樣本數據與龐大計算資源;而DeepSeek通過“算法+工程”創新提升模型推理能力與效率,將推理成本壓縮至OpenAI同類模型的1/40~1/30,API調用價格僅為行業標準的3%~5%,這使中小型企業和開發者能以更低成本獲取強大AI能力,算力需求重心由“訓練側”快速向“推理側”傾斜,預計到2027年推理負載占比將達到72.6%。
DeepSeek的開源模式大幅降低了AI應用門檻,用戶推理需求激增。據統計,DeepSeek上線20天累計新增用戶1.25億戶,日活用戶數超2000萬,今年1月28日的單日訪問量高達4900萬次。但高并發訪問請求導致服務器資源迅速耗盡,用戶訪問DeepSeek網頁時經常遇到“服務器繁忙,請稍后再試”的提示。2月6日DeepSeek官方宣布,由于服務器資源緊張,已暫停API服務充值功能。針對企業私有算力有限、難以滿足海量用戶并發推理需求的問題,運營商亟須利用自有網絡資源、算力資源以及邊緣計算能力,構建全新分布式推理架構,通過多節點云邊協同,為用戶提供無處不在的低時延推理服務。
點此閱讀雜志全文
特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.