智東西
編譯 金碧輝
編輯 程茜
智東西6月6日消息,昨天,阿里巴巴宣布推出Qwen3-Embedding和Qwen3-Reranker系列模型,正式發布Qwen3-Embedding和Qwen3-Reranker系列大模型技術報告,首次公開開源模型Qwen3-Embedding和Qwen3-Reranker的推理架構、訓練策略及評測結果。
Qwen3-Embedding和Qwen3-Reranker,均基于Qwen3基礎模型訓練,專為文本表征、檢索與排序任務設計。其中,Qwen3-Embedding接收單段文本,將其轉換為語義向量,以用于語義搜索、問答系統等場景。Qwen3-Reranker則接收文本對,利用單塔結構計算并輸出兩個文本的相關性得分,可在各類文本檢索場景中顯著提升搜索結果的相關性。在實際應用中,二者常結合使用,比如在RAG系統里,Qwen3-Embedding用于初步檢索,Qwen3-Reranker用于優化候選結果,兼顧效率和精度。
Qwen3-Embedding 8B以70.58分登頂MTEB(當前全球公認的文本嵌入模型評測基準,通過整合檢索、聚類、分類等7大場景,系統評估向量模型的語義表征能力)多語言榜全球第一,創歷史新高(截至2025年6月6日);Qwen3-Reranker在mMARCO跨語言檢索中MRR@10達0.42,超越行業標桿。雙模型支持119種語言及編程語言,提供0.6B/4B/8B全尺寸覆蓋,其中Reranker對100文檔排序延遲壓至80ms內(A100),長文本處理突破32k上下文。即日起雙模型在Hugging Face/GitHub/ModelScope開源免費商用,阿里云API同步上線。
▲圖源阿里巴巴Qwen3-Embedding和Qwen3-Reranker系列模型技術報告
模型地址:
https://github.com/QwenLM/Qwen3-Embedding
https://huggingface.co/collections/Qwen/qwen3-reranker-6841b22d0192d7ade9cdefea
一、阿里巴巴發布Qwen3-Embedding模型,模型多語言得分超70
阿里巴巴昨天正式推出Qwen3-Embedding文本向量模型,提供0.6B、4B、8B三檔參數規模,全面覆蓋輕量級邊緣計算到高性能云端場景。該模型支持119種自然語言及Python、Java等編程語言,并突破性地實現32k tokens長文本處理能力。
目前Qwen3-Embedding模型以Apache 2.0協議免費開源,開發者可通過Hugging Face、ModelScope及阿里云API一鍵部署。
在權威評測中,Qwen3-Embedding 8B版本以70.58分登頂MTEB多語言Leaderboard榜單(截至2025年6月6日),超越Google Gemini-Embedding等商業模型。
▲Qwen3-Embedding模型在MTEB多語言Leaderboard榜單中位列第一
Qwen3-Embedding模型在代碼檢索(MTEB-Code)任務中,搜索精準度排名第一。
▲Qwen3-Embedding在代碼檢索任務中表現的性能
在多模態文本嵌入(MTEB)跨語言場景下,Qwen3-Embedding 8B模型在多語言檢索任務中取得了69.02的高分,在中文檢索任務中得分達到77.45,在英文檢索任務中得分達到69.76。
▲Qwen3 Embedding在多模態文本嵌入任務中表現的性能
除此,技術報告還透露,Qwen3 Embedding依托Qwen3基座模型的深度語言理解能力,創新采用雙編碼器架構,能獨立處理查詢文本與文檔內容,生成高精度語義向量。
Qwen3-Embedding模型采用三階段訓練框架:首階段基于36萬億token多語言數據弱監督預訓練,第二階段融合MS MARCO標注數據進行監督微調,最終通過模型融合技術提升泛化性。推理層面Qwen3-Embedding模型創新性支持自定義指令模板,使特定任務性能提升3%-5%。
▲Qwen3-Embedding的模型架構
Qwen3-Embedding的核心優勢在于多語言深度適配(跨語言檢索誤差率降低30%)、長文本處理標桿級能力(32k窗口+雙塊注意力機制),以及靈活定制化設計(競品如OpenAI text-embedding僅支持固定維度)。
同時,Qwen3-Embedding模型的開源免費策略顯著降低技術門檻,中小企業可零成本構建文檔檢索、知識庫聚類等系統,可能使多語言文本處理技術進入普惠化應用階段。
二、32k長文檔精準排序:Qwen3-Reranker支持法律科研檢索99%穩定性
阿里巴巴的Qwen3-Reranker系列模型專門用于提升搜索和推薦系統相關性排序能力的模型,該系列提供0.6B/4B/8B三檔參數規模。Qwen3-Reranker系列模型專為文本表征、檢索與排序任務設計。該系列模型采用基于Qwen3基礎模型的稠密版本,并與Qwen3-Embedding模型協同構建端到端檢索鏈路。
▲Qwen3-Embedding與Qwen3-Reranker系列的訓練流程
Qwen3-Reranker系列模型的32k tokens上下文窗口專為法律文書、科研論文等長文檔排序優化,顯著提升長文本處理穩定性。模型以Apache 2.0協議開源免費,開發者可通過Hugging Face、GitHub、ModelScope獲取,或通過阿里云API一鍵調用集成。
Qwen3-Reranker模型采用單塔交互結構,將用戶查詢與候選文檔拼接輸入,通過動態計算查詢-文檔交互特征輸出相關性得分,實現非靜態向量匹配的實時排序。
▲Qwen3-Reranker的模型架構
針對長文檔場景,Qwen3-Reranker模型集成RoPE位置編碼與雙塊注意(Dual Chunk Attention)機制,有效避免長程信息丟失,確保32k上下文內語義連貫性。
同時,Qwen3-Reranker模型支持任務指令微調,開發者可通過自定義指令(如“按病例描述相關性排序”)優化特定領域性能,實測可提升排序準確率3%-5%,而競品如ColBERT缺乏此類功能。
阿里巴巴Qwen3-Reranker系列模型提供了三種不同參數規模的模型配置,分別為0.6B、4B和8B參數,以滿足不同場景下的性能與效率需求。
Qwen3-Reranker 0.6B模型參數量為0.6B,屬于超小型模型,適合端側設備部署。其上下文長度達32k,采用基于Transformer的架構,以RMSNorm對層輸入進行歸一化,確保訓練穩定;Qwen3-Reranker 0.6B模型能無縫集成兩種思考模式,在保持推理效率的同時,展現出良好的多語言處理能力。
Qwen3-Reranker 4B模型參數量為4B,性能匹敵Qwen2.5-72B-Instruct。Qwen3-Reranker 4B模型同樣具備32k的上下文長度,它通過多項架構增強提升語義理解能力;Qwen3-Reranker 4B模型在AIME25(美國數學邀請賽)評測中得分為81.5,刷新了開源模型記錄,展現出強大的數學推理能力,能夠處理復雜的數學問題,進行嚴謹的計算和多步推理。
Qwen3-Reranker 8B模型參數量為8B,上下文長度在標準配置下為32768個 Token;Qwen3-Reranker 8B在多語言檢索任務中取得了69.02分,性能超越bge-reranker-large等開源競品;在中文檢索任務中得分達到77.45,在英文檢索任務中得分達到69.76,顯著優于傳統BM25和ColBERT等其他基線模型。
另外,Qwen3-Reranker模型或推動高精度檢索技術普及,企業知識庫問答準確率提升40%,大幅降低人工成本;跨境電商實現119語言商品精準搜索,誤檢率下降35%;科研法律領域長文檔檢索效率突破90%,加速信息提取。
阿里巴巴的開源策略激活開發者生態,通過Hugging Face快速微調行業模型,阿里云API支持5行代碼接入,極大降低技術門檻。同時推動文本檢索從“關鍵詞匹配”升級至“語義理解+動態交互”,為AI Agent與多模態應用奠定基礎。
結語:告別通用泛化!阿里報告揭示:文本處理進入精準專用
Qwen3-Embedding/Reranker通過“多語言+長文本+可定制”三位一體設計,解決了傳統文本處理模型泛化性差、成本高的痛點。其開源策略更將加速產業應用創新,開發者可基于Hugging Face快速微調,企業可通過阿里云API即時部署。阿里巴巴在文本嵌入領域的技術布局覆蓋從輕量級到高性能的全場景需求。
技術報告特別提醒,在實際檢索場景中,建議應用者根據具體任務、語言和場景設計指令模板,否則可能影響效果。這一細節可能反映出AI模型正從“通用泛化”向“精準專用”演進,也為行業提供了新的優化思路。
特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.