人工智能領域又一重大突破!
4月29日,阿里巴巴正式發布新一代通義千問模型——Qwen3(以下稱“千問3”),這一發布在全球科技圈引發震動。
千問3的最大亮點在于其卓越的效率與顯著降低的成本。據悉,千問3的模型大小僅為相近性能模型的三分之一,但其性能卻全面超越了包括R1和OpenAI-o1在內的全球頂尖模型,登頂全球最強開源模型。
值得強調的是,千問3是國內首個“混合推理模型”,將“快思考”與“慢思考”有效整合于同一模型中。通俗來說,對于簡單問題,千問3能夠以低算力實現“秒回”;而面對復雜問題,則能通過多步驟的深度思考,顯著節省算力消耗。這一設計實現了推理機制與最低成本之間的最佳平衡。
據悉,千問3開源后,上下游供應鏈連夜進行適配和調用,NVIDIA、聯發科、AMD等多家頭部芯片廠商已成功適配千問3。在阿里通義千問模型千問3模型開源數小時后,華為官方宣布昇騰支持千問3全系列模型部署,開發者在MindSpeed和MindIE中開箱即用,實現千問3的0Day適配。
對此,數據猿第一時間對千問3在數學、代碼生成、文字創意上進行了幾道簡單的實測,先是輸入了一道2024年高考數學題。
在頁面提問后,頁面會顯示此次思考所用的“思考預算”,用戶可以根據實際需求,調整深度思考所需的tokens數量,從1024tokens到38912tokens,從而實現不同程度的思考。
已知三角形ABC的內角A、B、C的對邊分別為a、b、c,若a=3,b=4,C=60°,求三角形ABC的面積。在這道高考數學題中,筆者分別用no think和think模式,其都回答正確。
其次,又在指令欄里輸入:創建一個紅白機風格的"貪吃蛇"游戲,包含自動演示AI功能,使用純HTML/CSS/JavaScript實現為單文件
生成游戲代碼
性能登頂
千問3的“混合推理”
據介紹,此次發布的千問3在推理能力、指令遵循、工具調用及多語言能力等方面均有顯著提升,創造了國產模型及全球開源模型的新性能高峰。
千問3擁有五大關鍵特性:一是獨特的混合推理能力,能夠在思考模式和非思考模式之間靈活切換,以適應不同場景的需求;二是在數學、代碼生成和常識邏輯推理等方面的推理能力得到了顯著增強;三是表現出卓越的人類偏好對齊,在創意寫作、角色扮演、多輪對話和指令跟隨等場景中提供出色的對話體驗;四是智能體能力突出,能夠在兩種模式下精準集成外部工具,在處理復雜的基于代理的任務時展現出強大的競爭力;五是具備強大的多語言能力,支持119種語言和方言,極大地拓展了其應用范圍。
其中,千問3在代表奧數水平的AIME25測評中,獲得了81.5分,刷新了開源紀錄;在考察代碼能力的LiveCodeBench評測中,突破了70分大關,表現甚至超過了Grok3;在評估模型與人類偏好對齊的ArenaHard測評中,千問3以95.6分超越了OpenAI-o1及DeepSeek-R1。
好奇千問3為何能表現出如此強勁的實力?實際上,高性能、低成本的秘密,其實藏在千問3獨特的“混合推理”模式中。
如何理解“混合推理”?
通俗來說,相當于把頂尖的推理模型和非推理模型集成到同一個模型里去,遇到簡單問題模型能瞬間給出答案,算力消耗很少,但遇到復雜問題,就開啟復雜思考模式。技術門檻很高,通常需要經過精心設計的多輪強化學習訓練,才能實現模型智能最終的巨大飛躍。目前,熱門模型中只有千問3、Claude3.7以及Gemini 2.5 Flash可以做到。
以DeepSeek類比,V3是Chat/Instruct 模型,R1 是 Reasoning 模型,在使用時,需要打開/關閉深度思考;但在部署時,需要分別部署兩套模型,這樣就占用了極大的算力資源。而 Qwen3 全系列都有推理能力,且小模型也能做推理。
具體而言,在“推理模式”下,模型會執行更多中間步驟,如分解問題、逐步推導、驗證答案等,給出更深思熟慮的答案;而在“非推理模式”下,模型會快速遵循指令生成答案。同一個模型,可以完成“快思考”和“慢思考”,這類似于人類在回答簡單問題時,憑經驗或直覺快速作答,面對復雜難題時再深思熟慮,仔細思考給出答案。
千問3還可API設置“思考預算”(即預期最大thinking tokens數量),進行不同程度的思考,讓模型在性能和成本間取得更好的平衡,以滿足開發者和機構的多樣需求。
正是因為它的“超高性價比”,能在提升模型本身智能水平的同時,整體降低算力資源消耗。如今混合推理的大模型路線,正成為頂級大模型公司爭相突破的前沿技術領域。有研究顯示,綜合來看,推理模式下的成本可能是非推理模式的數倍(2到5倍)。
成本“斷崖式”下降
中國AI應用即將迎來大爆發?
除了上文說的性能提升,此次千問3開源還顯著降低了部署成本?,F在,僅4張H20顯卡即可輕松部署千問3旗艦版,可以說是把大模型的部署門檻壓到了地板。
可別小看這點。實際上,自打大模型出來后,大家考慮的是如何將這些模型更好的融合到業務中。
為了滿足不同場景的應用需求,據介紹,此次千問3共開源了8款模型,其中,包含2款MoE模型(30B和235B),以及6款參數規模各異的稠密模型(參數量分別為0.6B、1.7B、4B、8B、14B、32B)。
其中,千問3的30B參數MoE模型實現了10倍以上的性能杠桿提升,僅需激活3B參數,就能媲美上一代Qwen2.5-32B模型的性能。而千問3的密集模型性能也在持續突破,以一半的參數量實現了同等高性能。例如,32B版本的千問3模型,其性能甚至能夠跨級超越Qwen2.5-72B模型。
每款模型均代表了同尺寸下的開源最佳性能,這些模型針對不同的應用場景進行了優化。
例如,小參數模型適用于實驗和科研,4B模型適合手機端,8B模型適合電腦或汽車端,14B模型便于普通開發者進行落地應用,而32B模型則是企業和大規模部署的首選。兩款MoE模型中,旗艦版的235B-A22B模型憑借其高效性能,適用于企業本地部署和云部署;較小的30B-A3B模型則以快速響應和良好效果,適合對速度有較高要求的應用場景。
推理大模型的能力增強,將適用場景進一步拓展。但其中有一個問題是,推理大模型極其依靠算力的投入,背后就是大量的算力成本投入。這成為了阻礙企業適用大模型普及的因素。
從這點看,此次千問3的開源,顯得極具價值。未來或許會讓更多的人、企業都可以享用到用得起、用得好的尖端AI技術。特別是它的各種小尺寸模型,對后續手機、智能眼鏡、智能駕駛、人形機器人等智能設備和場景的部署更為友好。再加上,所有企業都可免費下載和商用千問3系列模型這點,或將大大加速AI大模型在終端上的應用落地。
從模型推理上看,千問3獨特的混合推理模型,開發者可自行設置“思考預算”,在滿足性能需求的同時實現更精細化的思考控制,自然也會節省整體推理成本??梢詤⒖嫉氖牵愋偷腉emini-2.5-Flash在定價上的推理和非推理模式的價格相差約6倍,用戶使用非推理模式時相當于可節省600%的算力成本。
千問3性能圖
值得一提的是,在阿里通義千問模型千問3模型開源數小時后,華為官方宣布昇騰支持千問3全系列模型部署,開發者在MindSpeed和MindIE中開箱即用,實現千問3的0Day適配。
此前華為昇騰就一直同步支持千問系列模型。昇騰MindSpeed訓練、MindIE推理支持千問2.5、兼容主流生態的分布式并行接口等,千問3系列模型一發布即實現低代碼無縫遷移。
千問3開源后,上下游供應鏈連夜進行適配和調用,NVIDIA、聯發科、AMD等多家頭部芯片廠商已成功適配千問3。聯想旗下的智能體應用“百應”也同步接入千問3,在語言理解、多輪推理、指令跟隨等關鍵能力上實現了躍升。
堅持開源:首次支持119種語言
為全球開發者鋪平道路
千問3為即將到來的智能體Agent和大模型應用爆發提供了更好的支持。
在評估模型Agent能力的BFCL評測中,千問3創下70.8的新高,超越Gemini2.5-Pro、OpenAI-o1等頂尖模型,將大幅降低Agent調用工具的門檻。
同時,千問3原生支持MCP協議,并具備強大的工具調用(function calling)能力,結合封裝了工具調用模板和工具調用解析器的Qwen-Agent 框架,將大大降低編碼復雜性,實現高效的手機及電腦Agent操作等任務。
據了解,千問3系列模型依舊采用寬松的Apache2.0協議開源,并首次支持119多種語言,全球開發者、研究機構和企業均可免費在魔搭社區、HuggingFace等平臺下載模型并商用,也可以通過阿里云百煉調用千問3的API服務。個人用戶可立即通過通義APP直接體驗千問3,夸克也將接入千問3。
通過結合Qwen-Agent開源框架,開發者可以充分發揮千問3的智能體能力。Qwen-Agent是一個基于Qwen的指令跟蹤、工具使用、規劃和內存功能開發大型語言模型(LLM)應用程序的框架。該框架內部封裝了工具調用模板和解析器,并附帶瀏覽器助手、代碼解釋器和自定義助手等示例應用,大大降低了編碼復雜性。
開發者可以基于MCP配置文件定義可用工具,利用Qwen-Agent的集成功能或自行集成其他工具,快速開發具有設定、知識庫RAG和工具使用能力的智能體。
Qwen3開源模型家族
通義千問一直致力于開源事業,并將語言支持從29種擴展到119種,意味著更多國家和地區的人們能夠使用自己的語言享受AI技術帶來的便利。
具體來看,此次千問3支持119中語言,不但囊括了中、英、法、西、俄、阿拉伯等主要的聯合國語言,還包含了德、意、日、韓、泰、越南、尼泊爾、瑞典、波蘭、匈牙利等各國官方語言,以及中國的粵語、非洲的斯瓦西里語、中東的意第緒語、西亞的亞美尼亞語、東南亞的爪哇語、美洲的海地語等地方性語言。許多國家和地區沒有技術能力開發自己語種的AI大模型,隨著千問3的開源,全球各國各地區的人從此有了自己的AI大模型。
據悉,從2023年至今,阿里通義團隊已開源200多款模型,包含大語言模型千問Qwen及視覺生成模型萬相Wan等兩大基模系列,開源囊括文本生成模型、視覺理解/生成模型、語音理解/生成模型、文生圖及視頻模型等「全模態」,覆蓋0.5B、0.6、1.5B、3B、4B、7B、14B、30B、32B、72B、110B、235B等「全尺寸」參數,屢次斬獲Chatbot Arena、司南OpenCompass等權威榜單“全球開源冠軍”、“國產模型冠軍”,多次登頂HuggingFace、Github的最熱趨勢榜單。
目前,通義千問Qwen衍生模型數量已突破10萬,超越美國Llama模型,通義成為全球第一AI開源模型。通義千問Qwen在全球下載量超過3億,在HuggingFace社區2024年全球模型下載量中千問Qwen占比超30%,穩居第一。在2025年2月的Huggingface全球開源大模型榜單(Open LLM Leaderboard)中,排名前十的開源模型全部都是基于千問Qwen二次開發的衍生模型。
在李飛飛領銜的斯坦福HAI研究所發布的《2025年人工智能指數報告》顯示,2024年重要大模型(Notable Models)中,阿里入選6個,按照模型貢獻度排名,阿里AI貢獻位列全球第三。
特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.