被追趕和超越,是創業者常面對的挑戰。
文|《中國企業家》記者 閆俊文
編輯|張曉迪
圖片來源|視覺中國
繼2月論文“撞車”之后,梁文鋒和楊植麟又在另一個大模型賽道上相遇了。
4月30日,DeepSeek上線新模型DeepSeek-Prover-V2,這是一個數學定理證明專用模型。
Prover-V2的參數規模進一步擴展到671B(6710億規模參數),相較于前一代V1.5版本的7B規模增加了近百倍,這讓其在數學測試集上的效率和正確率更高,比如,該模型的miniF2F測試通過率達到88.9%,它還解決了PutnamBench(普特南測試)的49道題。
巧合的是,4月中旬,月之暗面也曾推出一款用于形式化定理證明的大模型Kimina-Prover,這是Kimi團隊和Numina共同研發的大模型,該產品也開源了1.5B和7B參數的模型蒸餾版本。該模型的miniF2F測試通過率為80.7%,PutnamBench測試成績為10道題。
兩者相比較,在miniF2F測試通過率以及普特南測試上,DeepSeek-Prover-V2的表現超過了Kimina-Prover預覽版。
值得注意的是,兩家公司在技術報告中都提到了強化學習。比如DeepSeek的題目為《DeepSeek-Prover-V2:通過子目標分解的強化學習推進形式數學推理》,而月之暗面的題目為《Kimina-Prover Preview:基于強化學習技術的大型形式推理模型》。
在2月的兩篇“撞車”論文中,梁文鋒和楊植麟都在作者行列,兩家公司都關注Transformer架構最核心的注意力機制,即如何讓模型更好地處理長上下文。
作為中國大模型領域最受矚目的創業者,兩人也正在面臨不同的挑戰。
對于梁文鋒而言,在R1模型推出三個多月后,外界對DeepSeek“魔法”的癡迷程度正在下降,阿里巴巴的開源模型正在迅速趕上以及超過DeepSeek,外界熱切期待其發布R2或V4模型,以加強領先優勢。
對于楊植麟和月之暗面,Kimi正在遭受來自字節跳動的豆包和騰訊元寶的挑戰,它也需要保持持續創新。
編程與數學,實現AGI的兩條路徑
對于AGI的實現路徑,2024年,DeepSeek創始人梁文鋒在接受《暗涌》采訪時曾說,他們確實押注了三個方向:一是數學和代碼、二是多模態、三是自然語言本身。數學和代碼是AGI天然的試驗場,有點像圍棋,是一個封閉的、可驗證的系統,有可能通過自我學習就能實現很高的智能。另一方面,多模態需要參與到人類真實世界里學習。他們對一切可能性都保持開放。
此次Prover-V2模型的推出,讓DeepSeek的各個模型矩陣保持了同步進化。
Prover系列模型于2024年3月開始被發布,2024年8月被更新為DeepSeek-Prover-V1.5(后簡稱為Prover-V1.5),2025年4月再被更新至DeepSeek-Prover-V2。
DeepSeek代碼系列模型Coder從2024年4月開始更新,6月升級為Coder-V2-0614,7月再次升級,9月,DeepSeek-V2-Chat和DeepSeek-Coder-V2合并,升級后的新模型為DeepSeek-V2.5,2024年12月,該模型更新至V3,今年3月,升級至V3-0324。
通用推理大模型,以1月20日發布的R1模型為代表,價格低廉,自然語言推理性能強勁,在數學、代碼、自然語言推理等任務上,性能比肩OpenAI o1正式版。
從Prover-V2的技術報告上看,其與DeepSeek的其他模型進化有關聯,其中,DeepSeek-Prover-V2-671B是以DeepSeek-V3作為基礎模型來做微調,如在冷啟動階段,DeepSeek-V3將復雜問題分解為一系列子目標,而后,已解決子目標的證明被合成到一個思維過程鏈中,結合DeepSeek-V3的逐步推理,為強化學習創建一個初始冷啟動。
算法工程師、知乎用戶“小小將”告訴《中國企業家》,推理模型在進行推理時,要進行復雜的思考,代碼與數學模型可以檢驗推理大模型能力進展,因為數學與代碼的結果是可驗證的。
他認為,Prover-V2的推出與新模型R2或V4的上線沒有必然聯系,它更像是一個獨立模型的更新。
他預測,R2模型更像是GPT-o1到o3的過程,比如在提高強化學習的能力方面,DeepSeek可以基于V3,提升后訓練效果,因此R2的研發周期可能會比較短。但V4就是一個大版本的更新,其研發周期有可能更長,因為預訓練的工程量以及訓練方法可能都會發生變化。
目前市場已經對DeepSeek的新模型充滿了想象和期待。
市場上傳言,R2模型將基于華為昇騰系列GPU芯片而推出,但一位行業人士說,這個消息不太可靠,在英偉達H20芯片被限之后,昇騰系列芯片在市場上也是一卡難求,“對于昇騰來說,如果用于大模型研發,可能魯棒性沒那么強”。
另有創業公司相關人士告訴《中國企業家》,華為昇騰芯片用于大模型的訓練,效果一般,原因在于生態系統沒那么完善,但用于大模型的推理與部署,是沒有問題的。
DeepSeek與Kimi還能保持領先嗎?
DeepSeek與月之暗面作為明星初創公司,正在遭受大公司的追趕和超越。
以月之暗面旗下的Kimi為例,據QuestMobile數據,Kimi上線不足1年,在2024年11月,月活突破2000萬,僅次于豆包的5600萬。
QuestMobile數據顯示,截至2025年2月底,AI原生APP月活規模前三名從豆包、Kimi、文小言更迭為DeepSeek、豆包、騰訊元寶,規模分別是1.94億、1.16億、0.42億。
2月中旬,騰訊元寶宣布接入DeepSeek,隨后,在一個多月時間內,騰訊元寶利用超級產品微信引流加上瘋狂買量投流,在用戶數量上已經超過了Kimi,成為排名第三的AI產品。據AppGrowing數據,在今年一季度,騰訊元寶的投流費用為14億元,遠遠超過Kimi的1.5億元規模。
目前,Kimi最新的舉動是內測社區功能,增加用戶粘性。
DeepSeek同樣也避免不了被大公司追趕甚至超越的挑戰。近期,阿里巴巴在大模型方面展現出了強勁的競爭力。
4月29日,阿里巴巴發布新一代通義千問模型Qwen3,該模型被稱作首個“混合推理模型”,是“快思考”和“慢思考”集成的一個模型,參數量僅為DeepSeek-R1的1/3,性能全面超越R1、OpenAI o1等同行產品。
此前,蔡崇信評價DeepSeek,它告訴了我們開源的價值。根據公開數據,阿里通義已開源200余個模型,全球下載量超3億次,千問衍生模型數超10萬個,已超越美國Llama,成為全球第一開源模型。
一位AI創業者告訴《中國企業家》,DeepSeek受到了過多的關注,被賦予過多光環,中國大模型產業需要兩三個世界領先的大模型,而不是一個,這時候應鼓勵這個領域的競爭和創業。
另一個重要玩家是百度。4月25日,百度發布文心4.5 Turbo和深度思考模型X1 Turbo,這兩款模型性能更強大,成本更低,李彥宏更是數次提到DeepSeek,他說,DeepSeek也不是萬能的,它只能處理單一的文本,還不能理解聲音、圖片、視頻等多媒體內容,同時幻覺率比較高,很多場合不能放心使用。
“DeepSeek最大的問題是慢和貴,中國市場上絕大多數大模型API的價格都更低,而且反應速度更快。”李彥宏在發布會上說。
盡管如此,百度仍決定學習DeepSeek,今年2月,百度決定在6月30日開源文心大模型4.5系列。
越來越多的玩家參與大模型開源競賽,但只有技術最先進的玩家才能定義標準。
特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.