聞樂 魚羊 發自 凹非寺
量子位 | 公眾號 QbitAI
編程Agent王座,國產開源模型拿下了!
就在剛剛,阿里通義大模型團隊開源Qwen3-Coder,直接刷新AI編程SOTA——
不僅在開源界超過DeepSeek V3和Kimi K2,連業界標桿、閉源的Claude Sonnet 4都比下去了。
網友當即實測了一把小球彈跳,效果是醬嬸的:
效果之強,甚至引來驚呼:簡直改變游戲規則。
畢竟,這可是開源的!
現在大家不用再每月花200刀買Claude Code了!
Qwen3-Coder包括多個尺寸,其中最強版本Qwen3-Coder-480B-A35B-Instruct是450B的MoE模型,激活參數為35B
原生支持256K上下文,還可以通過YaRN擴展到1M長度。
命令行版Qwen也同步登場:
通義團隊基于Gemini Code,進行了prompt和工具調用協議適配,二次開發并開源命令行工具Qwen Code
嗯,這年頭沒個CLI都不好意思說自己是編程Agent了(doge)。
簡單prompt直出酷炫效果
Qwen3-Coder具體表現如何,還是直接眼見為實。
基本上是,使用簡單的語言就能得到驚喜的體驗:
比如一句話實現用p5js創建多彩的可交互動畫。
3D地球可視化,分分鐘得到一個電子地球儀。
還能做出動態的天氣卡片。
可交互的小游戲也能輕松拿捏。
我們也簡單實測了一波,先來個最實用的功能——做簡歷。
提示詞是:生成一個可編輯的簡歷模板。
寫個掃雷游戲更是輕輕松松,即寫即玩~
提示詞:生成一個掃雷游戲。
效果之外,值得關注的是,這一次通義團隊同樣公布了從預訓練到后訓練的不少技術細節。
技術細節
預訓練階段,Qwen3-Coder主要還是從不同角度進行Scaling,以提升模型能力。
包括數據擴展、上下文擴展、合成數據擴展
其訓練數據的規模達到7.5Ttokens,其中70%為代碼數據,在保證通用與數學能力的同時提高了編程能力。
同時,原生支持256K上下文長度,借助YaRN技術可以擴展至1M,適配倉庫級和動態數據處理。
在訓練中還利用Qwen2.5-Coder對低質量數據進行了清洗與重寫,顯著提升了整體數據的質量。
與當前熱衷于競賽類編程的模型不同,Qwen團隊認為代碼任務天然適合執行驅動的大規模強化學習。
因此在后訓練階段,他們一方面通過Scaling Code RL在豐富、真實的代碼任務上擴展訓練,自動生成多樣化測試用例,提高了代碼執行的成功率。
另一方面,引入了Scaling Long-Horizon RL,依托阿里云基礎設施構建可以同時運行20000個獨立環境的系統,讓模型在多輪交互中表現優異,尤其是在SWE-bench Verified上實現了開源模型SOTA的效果。
開源 vs 閉源
看到這里,你是不是也摩拳擦掌想要一試Qwen3-Coder的真實實力了?
幫大家指個路:
- 最簡單的,可以直接在Qwen官網體驗;
- 命令行安裝Qwen Code,支持OpenAI SDK調用LLM;
- 在阿里云百煉平臺申請API,Claude Code、Cline等編程工具都能搭配起來用。
值得一提的是,Qwen3-Coder依然遵循的是Apache License Version 2.0,商用友好。
反正開源嘛,主動權已經交到了各位開發者手里~
而這也是Qwen此番發布,引得網友刷屏轉發的關鍵所在:
Qwen3-Coder看起來是開源編程Agent的一次重大飛越。
現在是比肩,超越還會遠嗎?
而更令人興奮的是,在開源這條路上,中國模型們當之無愧地正走在最前列。
官網:
https://chat.qwen.ai/
項目地址:
https://github.com/QwenLM/qwen-code
https://mp.weixin.qq.com/s/CArpTOknOQC5O90Wgih3SA
— 完 —
特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.