DoNews5月29日消息,據DeepSeek官方公眾號透露,DeepSeek R1 模型已完成小版本升級,當前版本為 DeepSeek-R1-0528。用戶通過官方網站、APP 或小程序進入對話界面后,開啟“深度思考”功能即可體驗最新版本。API 也已同步更新,調用方式不變。
深度思考能力強化
DeepSeek-R1-0528 仍然使用 2024 年 12 月所發布的 DeepSeek V3 Base 模型作為基座,但在后訓練過程中投入了更多算力,顯著提升了模型的思維深度與推理能力。
更新后的 R1 模型在數學、編程與通用邏輯等多個基準測評中取得了當前國內所有模型中首屈一指的優異成績,并且在整體表現上已接近其他國際頂尖模型,如 o3 與 Gemini-2.5-Pro。
相較于舊版 R1,新版模型在復雜推理任務中的表現有了顯著提升。例如在 AIME 2025 測試中,新版模型準確率由舊版的 70% 提升至 87.5%。這一進步得益于模型在推理過程中的思維深度增強:在 AIME 2025 測試集上,舊版模型平均每題使用 12K tokens,而新版模型平均每題使用 23K tokens,表明其在解題過程中進行了更為詳盡和深入的思考。
同時,蒸餾 DeepSeek-R1-0528 的思維鏈后訓練 Qwen3-8B Base,得到了 DeepSeek-R1-0528-Qwen3-8B。該 8B 模型在數學測試 AIME 2024 中僅次于 DeepSeek-R1-0528,超越 Qwen3-8B (+10.0%),與 Qwen3-235B 相當。
其他能力更新
幻覺改善:新版 DeepSeek R1 針對“幻覺”問題進行了優化。與舊版相比,更新后的模型在改寫潤色、總結摘要、閱讀理解等場景中,幻覺率降低了 45~50% 左右,能夠有效地提供更為準確、可靠的結果。
創意寫作:在舊版 R1 的基礎上,更新后的 R1 模型針對議論文、小說、散文等文體進行了進一步優化,能夠輸出篇幅更長、結構內容更完整的長篇作品,同時呈現出更加貼近人類偏好的寫作風格。
工具調用:DeepSeek-R1-0528 支持工具調用(不支持在 thinking 中進行工具調用)。當前模型 Tau-Bench 測評成績為 airline 53.5% / retail 63.9%,與 OpenAI o1-high 相當,但與 o3-High 以及 Claude 4 Sonnet 仍有差距。
此外,DeepSeek-R1-0528 在前端代碼生成、角色扮演等領域的能力均有更新和提升。
API 更新
API 已同步更新,接口與調用方式保持不變。新版 R1 API 仍支持查看模型思考過程,同時還增加了 Function Calling 和 JsonOutput 的支持。
對新版 R1 API 中 max_tokens 參數的含義做了調整:現在 max_tokens用于限制模型單次輸出的總長度(包括思考過程),默認為 32K,最大為 64K。請 API 用戶及時調整 max_tokens 參數以防輸出被提前截斷。
本次 R1 更新后,官方網站、小程序、App 端和 API 中的模型上下文長度仍為 64K。如果用戶對更長的上下文長度有需求,可以通過其他第三方平臺調用上下文長度為 128K 的開源版本 R1-0528 模型。
模型開源
DeepSeek-R1-0528 與之前的 DeepSeek-R1 使用同樣的 base 模型,僅改進了后訓練方法。私有化部署時只需要更新 checkpoint 和 tokenizer_config.json(tool calls 相關變動)。模型參數為 685B(其中 14B 為 MTP 層),開源版本上下文長度為 128K(網頁端、App 和 API 提供 64K 上下文)。
與舊版本的 DeepSeek-R1 保持一致,此次開源倉庫(包括模型權重)仍然統一采用 MIT License,并允許用戶利用模型輸出、通過模型蒸餾等方式訓練其他模型。
特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.