4月29日,阿里巴巴集團旗下阿里云宣布推出新一代AI大模型Qwen3,并同步開源全部8款混合推理模型。這是繼Qwen系列前代產品后,阿里云在通用人工智能領域的重要技術突破,旨在為全球開發者、企業及研究機構提供更高效、靈活且低成本的大模型解決方案。
全棧開源:覆蓋多場景需求,支持免費商用
此次開源的Qwen3系列包含兩款MoE(Mixture-of-Experts)模型和六款Dense模型,參數規模從0.6B到235B不等,滿足從終端設備到云端計算的多樣化需求:
MoE模型
:旗艦級Qwen3-235B-A22B(總參數2350億,激活參數220億)與Qwen3-30B-A3B(總參數300億,激活參數30億),以高效參數激活機制實現高性能與低成本的平衡;
Dense模型
:包括Qwen3-32B、Qwen3-14B等六款模型,其中Qwen3-30B-A3B的激活參數僅為同類模型QwQ-32B的10%,但性能表現更優,Qwen3-4B小模型甚至超越Qwen2.5-72B-Instruct。
所有模型均基于Apache 2.0協議開源,開發者可免費在魔搭社區、HuggingFace等平臺下載商用,也可通過阿里云百煉直接調用API服務。個人用戶可通過通義APP實時體驗,夸克搜索即將全端集成Qwen3能力。
技術創新:雙模式推理+多語言支持
Qwen3的核心突破在于引入“思考模式”與“非思考模式”動態切換機制。前者針對復雜問題(如代碼生成、數學推理)啟動深度分析,后者面向簡單任務(如文本摘要)優先響應速度,用戶可根據需求靈活調整“思考預算”,在成本與效果間實現最優平衡。實測顯示,該機制使模型推理效率提升顯著,同時保持輸出穩定性。
此外,Qwen3支持119種語言及方言,覆蓋全球多數地區的使用場景,進一步推動多語言AI應用的普惠化。其開源生態兼容主流推理框架,推薦使用SGLang、vLLM等云端部署工具,或Ollama、llama.cpp等本地化方案,降低開發門檻。
性能領跑:多項基準測試超越頂級模型
在代碼、數學、通用任務等權威基準測試中,旗艦模型Qwen3-235B-A22B展現出頂尖水平,超越OpenAI o1、DeepSeek-R1等國際競品。即便小型模型Qwen3-30B-A3B亦在特定任務中優于大參數模型,印證了阿里云“輕量化高性能”研發路線的可行性。
阿里云首席技術官周靖人表示:“Qwen3通過混合推理架構與雙模式機制,重新定義了大模型的成本效率邊界。我們希望以全棧開源策略,構建開放的技術生態,助力全球AI創新。”
開源生態:加速產業智能化升級
Qwen3的開源標志著阿里云在AI基礎設施領域的進一步開放。目前,魔搭社區已匯聚超20萬開發者,此次開源模型將推動教育、醫療、金融等垂直領域加速智能化轉型。企業用戶可通過私有化部署保障數據安全,中小開發者亦可基于輕量模型快速構建應用。
未來,阿里云計劃持續迭代Qwen系列,拓展多模態能力并優化推理性能。用戶可通過阿里云官網、魔搭社區或通義APP獲取模型,即刻開啟AI開發新體驗。
特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.