5月29日凌晨,中國AI公司DeepSeek在開源機器學習平臺Hugging Face上悄然開源了新版R1模型(R1-0528),未發公告卻震動全球。
據開發者社區測試顯示,其代碼生成與復雜推理能力已媲美OpenAI頂級o3模型,甚至在編程任務中可一次性生成工業級代碼及配套測試用例,首次運行通過率接近100%,此前僅有o3能穩定做到這一點。
近期,DeepSeek沉寂許久,而OpenAI、谷歌等巨頭密集迭代模型。OpenAI于5月23日推出o3模型,它是ChatGPT內Operator自主網頁瀏覽和光標控制代理的升級基礎模型,能提升網頁任務執行準確性與安全防護能力。此前,其在4月先后發布o4-mini模型、GPT-4.1系列模型,其中GPT-4.1支持100萬Token上下文,利于處理大型代碼庫,Nano版則成本低廉。谷歌則剛剛發布了Imagen4和Veo3模型,具備從文本到視覺內容生成的高質量輸出能力,在圖像、視頻和音樂生成方面處于行業領先。
而此次DeepSeek再度以開源為矛,刺向全球AI競爭最敏感地帶。據開發者實測,R1模型不僅邏輯嚴密性顯著提升,能自主糾正思維鏈錯誤,其響應風格更與o3高度趨同——從箭頭符號使用到分層遞進式解釋,甚至結尾的“why it works”總結段落,均展現出與頂級商業模型同級的交互成熟度。在代碼生成領域,實測表明R1與Anthropic Opus 4差距已縮小至“毫厘之間”,部分創造性解法甚至更優。
更重要的是,R1延續了DeepSeek標志性的開源路線:模型權重、架構完全開放,允許免費商用與修改。這直擊美國閉源模型生態的軟肋。此前,其初代R1發布時,DeepSeek宣稱訓練成本僅560萬美元,不到美方同類模型的十分之一,成功打破技術壟斷的勢頭,甚至迫使OpenAI CEO奧爾特曼承認“閉源可能站在歷史錯誤一邊”。
面對美國芯片管制與框架封鎖,DeepSeek已非孤軍奮戰。中國本土正形成以R1為核心的“芯片-框架-應用”全棧生態:
算力層上,適配國產芯片的推理優化方案,據技術演示,可使7B小模型在(極低內存/如256MB內存)設備運行;平臺層上,騰訊、百度等將DeepSeek集成至微信搜索、文心一言等核心場景,推動技術普惠;商業層上,據公開信息,金融、醫療等約12個行業快速落地,企業應用案例顯示可借蒸餾模型將推理成本顯著降低至閉源方案的一小部分。
這種“開源+垂直優化”模式,正吸引新興市場開發者涌入。GitHub數據顯示,DeepSeek倉庫貢獻者覆蓋185個國家/地區,其中印度、巴西開發者活躍度據觀察僅次于中美。低成本與開放性,使其成為發展中國家AI躍遷的關鍵跳板。
目前,中國大模型競爭已從“百團大戰”聚焦至市場觀察所稱的“基模五強”,如字節、阿里、階躍星辰、智譜、DeepSeek。其中,DeepSeek憑借工程極致性與開源信仰,成為其中最獨特的“特種兵”。其突破印證了一個戰略趨勢:當模型智能逼近臨界點,開源生態的集體進化速度被普遍認為將超越閉源孤島。
特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.