今天,阿里全新開源代碼模型 Qwen3-Coder 正式發布。
(來源:X)
Qwen3-Coder 擁有多個尺寸,此次發布的是最強大的版本,名為 Qwen3-Coder-480B-A35B-Instruct(以下簡稱 Qwen3-Coder)。
它是一款混合專家(MoE)模型,總參數量高達 4,800 億,激活參數為 350 億,原生支持 256K token 的上下文,并可通過 YaRN 擴展到高達 1 百萬 token,支持 358 種編程語言。
圖 | Qwen3-Coder 在測試中的表現(來源:資料圖)
由于 Qwen3 系列模型的整體調整,Qwen3-Coder 僅支持非思考模式,不生成思考過程。
在注意力機制方面,Qwen3-Coder 采用了分組查詢注意力(GQA)方案,配備 96 個查詢(Q)注意力頭和 8 個鍵/值(KV)注意力頭,并擁有 160 個專家(Expert),其中 8 個專家被激活。
圖 | Qwen3-Coder 模型總覽(來源:Qwen)
據介紹,預訓練階段,Qwen3-Coder 從數據、上下文、合成數據三個不同角度進行擴展(scaling),以提升模型的代碼能力。
在后訓練階段,研究團隊選擇在更豐富的真實代碼任務上擴展代碼強化學習(Code RL)訓練。通過自動擴展測試樣例,他們構造了大量高質量的訓練實例,成功釋放了強化學習的潛力:不僅顯著提升了代碼執行成功率,還對其他任務帶來增益。
此前網友挖出線索,阿里團隊在代碼中介紹 Qwen3-Coder 時寫道:“Qwen3-Coder-480B-A35B-Instruct 是一個強大的編碼專用語言模型,在代碼生成、工具使用和代理任務方面表現出色。”
圖 | 網友先前挖出 Qwen3-Coder 的線索(來源:X)
阿里表示,該模型“擁有卓越的代碼和代理能力”。Qwen3-Coder 在代理式編碼、代理式瀏覽器使用和代理式工具使用上成為了開源模型的 SOTA,可以媲美 Claude Sonnet 4。
Qwen3-Coder 也是受到了網友的大力追捧,代碼庫上線一小時就收獲了 5.1k Star。
(來源:GitHub)
與此同時,阿里還推出并開源了一款用于代理式編程的命令行工具:Qwen Code。
“Qwen Code 基于 Gemini Code 進行二次開發,但我們進行了提示詞和工具調用協議適配,使得 Qwen Code 可以最大程度激發 Qwen3-Coder 在代理式編程任務上的表現。”阿里在官網上表示。
(來源:資料圖)
另外,Qwen3-Coder 也可以和 AI 社區優秀的編程工具結合使用,如 Claude Code、Cline 等。開發者也可以通過阿里云 Model Studio 調用 Qwen3-Coder API。
目前,Qwen3-Coder 網頁版已經上線,筆者第一時間嘗試了它的編程水平。
(來源:https://chat.qwen.ai/)
在只提供一句“克隆推特網頁設計和UI”提示的情況下,Qwen3-Coder 給出的結果還是不錯的:
圖 | Qwen3-Coder 生成的仿推特 UI(來源:資料圖)
相比之下,ChatGPT(免費版)給出的結果則是有些簡陋,雖然文本和幾個功能區域都有,但幾乎沒有視覺元素:
圖 | ChatGPT 生成的仿推特 UI(來源:資料圖)
筆者還讓 Qwen3-Coder 做了一個簡單的網頁版乒乓球游戲,同樣只是一句話提示:“開發一個可以在網站上運行的乒乓球游戲”。
代碼生成后直接在 Artifact 上無縫運行,整個過程不到 20 秒,效果很驚艷,直接用鍵盤就能控制,支持兩人對戰,它還自主發揮加上了獲勝規則:
而 ChatGPT 生成的雖然也能運行,但無論是美觀還是完整性,都遠不及 Qwen3-Coder:
圖 | ChatGPT 生成的乒乓球游戲截圖(來源:資料圖)
最后是官方給出的兩段代碼運行效果,分別是地球 3D 模擬和 Flappy Bird 游戲:
此次發布的 Qwen3-Coder 屬于阿里 Qwen3 系列。
三個月前,阿里發布了千問 3(Qwen3)系列模型,包括兩款混合專家 MoE 模型、六款密集模型和若干模型變種,例如后訓練、FP8 版本等等。
其中的旗艦模型 Qwen3-235B-A22B,總參數量高達 2,350 億(235B),其中激活參數為 220 億(A22B),分布在 94 個深層網絡層中。
另外一個 MoE 模型 Qwen3-30B-A3B,尺寸較小,總參數量 300 億,激活參數量 30 億。
(來源:Qwen3)
當時,Qwen3 系列引入了一種混合方法來解決問題,一個模型同時支持思考模式和非思考模式。但現在這種模式已經被取消。
就在 Qwen3-Coder 發布的前一天,阿里同樣更新了 Qwen3 系列,新模型名為 Qwen3-235B-A22B-Instruct-2507(簡稱 Qwen3-2507),迭代速度令人驚喜。
阿里在官網表示,“經過與社區溝通和深思熟慮后,我們決定停止使用混合思維模式。取而代之的是,我們將分別訓練 Instruct 和 Thinking 模型,以獲得最佳質量。所以我們發布了 Qwen3-235B-A22B-Instruct-2507 及其 FP8 版本,供大家使用。”
(來源:資料圖)
Qwen3-2507 在主流基準測試中表現優異。作為一款“沒有思考能力”的開源模型,它在 GPQA、AIME25 和 LiveCodeBench v6 等測試中均超越了未開啟思考模式的 Claude Opus 4。
可以說,無論是Qwen3-Coder 還是 Qwen3-2507,再加上 DeepSeek 和 Kimi,都是 AI 開源社區寶貴的財富。
在閉源模型各種刷榜的今天,它們難得的推動了大模型技術的普及化,為AI 社區開發者和研究人員提供了強大的免費工具。更重要的是,它們的廣受歡迎讓中國在全球 AI 開源領域占據了重要一席。
(來源:資料圖)
這不僅能促進 AI 技術的普惠發展,還能有效降低創新門檻,讓更多開發者參與進來,共同構建一個更加開放和繁榮的 AI 生態系統。
反過來,這些模型未來在產業應用、學術研究和人才培養等方面都將發揮不可估量的作用,進一步加速中國在 AI 領域的進步。
參考資料:
https://qwenlm.github.io/blog/qwen3-coder/
https://qwenlm.github.io/blog/qwen3/
https://huggingface.co/Qwen/Qwen3-Coder-480B-A35B-Instruct
https://arxiv.org/pdf/2505.09388
特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.