大家好,我是 Ai 學習的老章
昨天阿里開源家族迎來兩個新成員——Qwen3-Embedding
和Qwen3-Reranker
,專為文本表征、檢索和排序任務設計,都基于Qwen3
模型構建。
看了測評,Qwen3-Embedding-8B
目前是 MTEB 多語言排行榜榜首,我最期待的是Qwen3-Embedding-0.6B,模型文件不足 1.2GB,Q4 量化版只有 639MB!
Qwen3-Reranker
也很能打,我準備替換掉目前正在使用的BGE-reranker-v2-m3
了。
下面咱們一起看看這兩個新模型
關于 Qwen3-Embedding 和 Qwen3-Reranker 的一切知識庫
Embedding
和Reranker
都是應用于知識庫的兩個核心技術。
知識庫是一個結構化或非結構化的信息存儲系統,用于存儲、組織和檢索領域特定或通用知識,結合大模型技術(如語義搜索和生成模型)來提升檢索效率和回答質量。簡單說,就是給大模型外掛了新知識。
說起知識庫,大家更熟悉的技術是RAG
,它通過結合檢索模型和生成模型,先從知識庫檢索相關信息,再由生成模型(如大語言模型)基于檢索結果生成自然語言回答,從而減少大模型的幻覺,提高回答的準確性和上下文相關性,特別適合知識庫問答場景。
RAG
基本工作流程包括:
文檔處理:將原始文檔進行分塊、清洗和標準化處理
向量化:將文本轉換為高維向量表示
索引構建:構建高效的向量索引以支持快速檢索
檢索:根據用戶查詢,從索引中檢索相關文檔
重排序:對檢索結果進行精確排序,確保最相關的文檔排在前面
生成回答:基于檢索到的相關文檔,生成準確的回答

事實上 RAG 目前已經從上面最簡單的技術架構發展出各種變體
Qwen3-Embedding
對應向量化環節
定義:將文本、圖像或其他數據轉化為高維向量表示,捕捉其語義內容。嵌入模型通過深度學習生成這些向量,使語義相似的文本在向量空間中距離較近。
作用:支持語義搜索,允許知識庫根據查詢內容的語義(而非僅關鍵詞)返回相關結果。例如,查詢“如何優化數據庫”可以匹配包含“數據庫性能提升”的文檔。

Qwen3-Reranker
對應重排序環節
檢索:從知識庫中初步篩選與查詢相關的文檔,通常基于嵌入向量的相似度(如余弦相似度)。
重排序(Reranking):對初步檢索結果進行精細排序,使用交叉編碼器(cross-encoder)計算查詢與文檔的相關性得分,進一步提升結果精準度。
作用:結合“粗篩(Embedding)+ 精排(Reranking)”的流程,確保返回最相關的知識片段。

Qwen3-Embedding
Qwen3-Embedding
提供 0.6B、4B 和 8B 三種參數規模,滿足不同場景的性能與效率需求。
官方還放出了這三種參數模型的 GGUF 量化版
https://www.modelscope.cn/collections/Qwen3-Embedding-3edc3762d50f48
模型類型
模型
大小
層數
序列長度
嵌入維度
MRL 支持
指令感知
文本嵌入
Qwen3-Embedding-0.6B
0.6B
28
32K
1024
文本嵌入
Qwen3-Embedding-4B
4B
36
32K
2560
文本嵌入
Qwen3-Embedding-8B
8B
36
32K
4096
Qwen3-Embedding
功能特點:
支持自定義最終嵌入的維度和指令感知(根據不同的任務定制輸入指令,官方測試:使用指令通常比不使用指令能提高 1% 到 5% 的性能)
支持 119 種語言,具備強大的多語言、跨語言和代碼檢索能力,適用于文檔檢索、RAG(檢索增強生成)、分類、情感分析、代碼搜索等任務。
性能方面:
8B 參數的 Embedding 模型在 MTEB 多語言排行榜上位列第一(得分 70.58)
4B 參數版就已經超越目前特能打的gemini-embedding-exp-03-07
了
而我目前使用的是 BGE-M3,也打不過Qwen3-Embedding-0.6B
了
這太誘人了,我看外面的評價,有人在測試把量化版放到 Raspberry Pi、手機端運行了
不過部署上,目前僅支持 transformers 的樣子,vllm 報錯了,應該需要更新
Qwen3-Reranker
Qwen3-Embedding
也提供 0.6B、4B 和 8B 三種參數規模
https://www.modelscope.cn/collections/Qwen3-Reranker-6316e71b146c4f
模型類型
模型
大小
層數
序列長度
指令感知
文本重排序
Qwen3-Reranker-0.6B
0.6B
28
32K
文本重排序
Qwen3-Reranker-4B
4B
36
32K
文本重排序
Qwen3-Reranker-8B
8B
36
32K
測評:
Model
Param
MTEB-R
CMTEB-R
MMTEB-R
MLDR
MTEB-Code
FollowIR
Jina-multilingual-reranker-v2-base
0.3B
gte-multilingual-reranker-base
0.3B
BGE-reranker-v2-m3
0.6B
Qwen3-Reranker-0.6B
0.6B
5.41
Qwen3-Reranker-4B
4B
Qwen3-Reranker-8B
8B
8.05
Qwen3-Reranker
模型在文本檢索場景中顯著提升搜索相關性,尤其在 MTEB-R、CMTEB-R、MMTEB-R 和 MTEB-Code 等檢索子集上表現優異
Qwen3-Reranker-0.6B
就已經傲視群雄了
我用 vllm 部署了 4B 版,正在測試
下載,部署代碼
pip install modelscope mkldir Qwen3-Reranker-4B cd Qwen3-Reranker-4B modelscope download Qwem/Qwen3-Reranker-4B --local_dir . vllm serve . --served-model-name Qwen3-Reranker-4B --port 8001
制作不易,如果這篇文章覺得對你有用,可否點個關注。給我個三連擊:點贊、轉發和在看。若可以再給我加個,謝謝你看我的文章,我們下篇再見!
特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.