阿里巴巴集團有限公司宣布推出新的人工智能模型系列 Qwen3,據稱其性能可超越來自 OpenAI 和 Google LLC 等公司的競爭模型。
這一新產品的發布突顯了自 DeepSeek Ltd. 在去年年底首次亮相以來,中國人工智能行業迅速發展的步伐。
新款 Qwen3 模型在多個領域,例如編碼和數學問題上,均優于 DeepSeek 最佳模型。它將以開源許可證發布多個 Qwen3 系列模型,這些模型的參數數量范圍從 600 million 到 235 billion 參數不等,參數數量大致反映了解決問題的能力。一般來說,模型參數越多,性能表現就越好。
在新推出的 Qwen3 系列中,有兩款采用所謂 "mixture of experts" ( MoE ) 技術的模型,阿里巴巴表示其可以與 Google 和 Anthropic PBC 推出的最先進推理模型相媲美。推理模型旨在模仿人類思考問題的方式,花更多時間進行思考并執行事實核查以確保準確性。
通過采用 MoE 技術,人工智能模型可以通過將任務劃分為更小的部分來增強其推理能力,這類似于一家公司派遣專門團隊針對更具挑戰性的問題的特定部分進行處理。將任務分攤至模型的不同部分,使問題解決過程更加高效。
阿里巴巴 Qwen 團隊在一篇博客文章中表示:“我們已將思考模式與非思考模式無縫集成,為用戶提供靈活控制思考預算的能力。這一設計使用戶能夠更輕松地配置針對特定任務的預算。”
阿里巴巴表示,Qwen3 模型支持 119 種語言,并在一個包含近 36 trillion Token 的數據集上進行了訓練,這些 Token 是它們在接受“教學”過程中處理的基本數據單位。1 million Token 大約相當于 750,000 個單詞,在本案例中,這些數據來自各種教材、代碼片段、AI 生成的數據、問答對以及其它資源。
在各項基準測試中,阿里巴巴的 Qwen3 模型展現出了令人印象深刻的表現,超越了美國 AI 公司近期推出的“高端”模型,如 OpenAI 的 o3-mini 和 o4-mini 模型。
例如,在衡量模型編寫代碼能力的 Codeforces 基準測試中,最大的 Qwen-3-235B-A22B 模型超越了 o3-mini 以及 Google 的 Gemini 2.5 Pro 模型。它還在 AIME 數學基準測試以及評估 AI 模型推理能力的 BFCL 測試中擊敗了 o3-mini。
自從 DeepSeek 的 R1 推理模型在去年 12 月末首次亮相以來,雖然其開發成本僅為 OpenAI 的一小部分,卻已搶占風頭,此后中國科技領袖陸續推出了一系列同樣強大的 AI 模型。阿里巴巴幾周前剛推出了 Qwen-2.5 系列模型,并稱這些模型可以處理包括文本、圖像、音頻和視頻在內的多模態數據格式。這些模型顯著輕量,設計上可直接在智能手機和筆記本電腦上運行。
強大且開源的中國 AI 模型的出現,提升了美國 AI 公司的競爭壓力,盡管它們直到最近還被視為行業領導者。但如今,美國模型的地位正受到威脅,尤其是因為美國制造的模型通常在訓練上投入的成本遠高于中國同行。
在其最近的一次舉動中,美國對 Nvidia Corp. 的 H20 GPU 實施了出口許可證,這款 GPU 專門設計以符合之前對中國的制裁規定。
OpenAI 則回應稱,將在未來幾個月內推出一種 “open-weights” 推理模型,這標志著其一貫將模型內部工作原理視為“黑盒”策略的巨大轉變。
阿里巴巴首席執行官吳泳銘在二月份表示,該公司的主要目標是構建一個“通用人工智能”系統,最終能夠超越人類的智力水平。
特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.