夢晨 發自 凹非寺
量子位 | 公眾號 QbitAI
DeepSeek R1橫空出世第128天,已經把整個大模型市場攪得天翻地覆!
首先,它以一己之力把推理模型的價格打下來,OpenAI六月更新的o3價格相比o1直接打了2折。
其次,第三方平臺托管的DeepSeek模型使用量瘋狂增長,比剛發布時漲了將近20倍,成就了大批云計算廠商。
然而,DeepSeek自家的網站和API市場份額卻不斷下降,跟不上AI產品上半年持續增長的節奏了。
以上數據來自SemiAnalysis發布的一篇報告,詳盡解讀了DeepSeek對AI模型競賽的影響以及AI市場份額的現狀。
揭開DeepSeek的降本秘訣
DeepSeek剛發布時確實火得一塌糊涂,但四個多月過去了,情況卻有點微妙。
從數據來看,DeepSeek自家網站和API的流量不升反降,市場份額也在持續下滑。
到了5月,全網DeepSeek模型產生的token中,來自DeepSeek本家的份額已經只占16%了。
網頁版聊天機器人流量也大幅下降,而同期其他主要大模型網頁版流量都在飆升。
DeepSeek V3與R1模型都經過版本更新,能力與1月相比更強了,價格又便宜,怎么用戶反而跑了呢?
這種“墻內開花墻外香”的現象,背后其實大有文章。
SemiAnalysis指出,DeepSeek為了把成本壓到極致,在服務質量上還是做了大量妥協。
用戶在DeepSeek官方平臺上使用模型,經常要等上好幾秒才能看到第一個字蹦出來,可以用首token延遲(First token latency)這個指標來衡量。
相比之下,其他平臺雖然普遍價格更貴,但響應速度快得多,有些甚至能做到幾乎零延遲。
在Parasail或Friendli等平臺,只需支付3-4美元就可以獲得幾乎沒有延遲的100萬token額度。
如果想選擇更大更穩定的服務商,微軟Azure平臺價格是DeepSeek官方的2.5倍,但延遲減少了整整25秒。
從另一個角度看,DeepSeek官方甚至不是同等延遲下價格最低的一家DeepSeek模型服務商。
如果在這張圖上用氣泡大小表示上下文窗口,可以看出DeepSeek在價格與性能之間的另一個權衡。
在有限的推理計算資源下,只提供64k上下文窗口的服務,在主流模型提供商中算是最小的之一。
在需要讀取整個代碼庫的編程場景里,64K根本不夠用,用戶只能選擇第三方平臺。
而同樣價格下,Lambda和Nebius等平臺能提供2.5倍以上的上下文窗口。
DeepSeek還把很多用戶的請求打包在一起處理,雖然每個token的成本降下來了,但每個用戶等待的時間也增加了。
大模型下半場:提升每個token的智能
需要明確的是,這些降本策略都是DeepSeek主動做出的決定。
他們目前看上去對用戶體驗不怎么感興趣,既無意從用戶身上賺錢,也無意通過聊天應用或API服務向用戶提供大量token,更多地是專注于實現AGI。
從這些優化策略就可以看出,DeepSeek把盡可能少的算力用作推理服務給外部使用,大量的算力資源留在內部研發用途。
同時配合開源策略,讓其他云服務托管他們的模型,贏得影響力和培養生態,兩不耽誤。
說到底,AI競賽拼的還是算力資源。
在DeepSeek影響下,Claude也開始降低速度緩解算力緊張的問題,但為了營收還是在努力平衡用戶體驗。
Claude 4 Sonnet發布以來,輸出速度已經下降了40%,但仍然比DeepSeek快不少。
另外Claude模型被設計成生成更簡潔的回復,回答同樣的問題,DeepSeek和Gemini可能要多花3倍的token。
種種跡象表明,大模型供應商正在多維度地改進模型。
不僅僅是提高模型的智能上限,而是提升每個token能提供的智能。
參考鏈接:
[1]https://semianalysis.com/2025/07/03/deepseek-debrief-128-days-later/
特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.