刚刚!阿里开源 Qwen3-VL-Embedding 和 Qwen3-VL-Reranker 模型!图片和视频也可以做RAG了~

AITNT-国内领先的一站式人工智能新闻资讯网站
# 热门搜索 #
刚刚!阿里开源 Qwen3-VL-Embedding 和 Qwen3-VL-Reranker 模型!图片和视频也可以做RAG了~
8692点击    2026-01-08 23:28

去年,我们开源了 Qwen3-Embedding 和 Qwen3-Reranker 模型,凭借其在多语言检索、聚类等任务中的领先性能,受到了开发者的喜爱。


今天,Qwen 家族新成员+2,我们正式发布 Qwen3-VL-Embedding  Qwen3-VL-Reranker 模型系列,这两个模型基于 Qwen3-VL 构建,专为多模态信息检索跨模态理解设计,为图文、视频等混合内容的理解与检索提供统一、高效的解决方案。


多模态检索新标杆,Qwen3-VL-Embedding&Reranker开源!


多模态通用性 


两个模型系列均能在统一框架内处理文本图像可视化文档(图表、代码、UI组件......)、视频等多种模态输入。在图文检索、视频-文本匹配、视觉问答(VQA),多模态内容聚类等多样化任务中,均达到了业界领先水平。


统一表示学习(Embedding)


Qwen3-VL-Embedding 充分利用 Qwen3-VL 基础模型的优势,能够生成语义丰富的向量表示,将视觉与文本信息映射到同一语义空间中,从而实现高效的跨模态相似度计算与检索。


多模态检索新标杆,Qwen3-VL-Embedding&Reranker开源!


图1:统一多模态表示空间示意图。Qwen3-VL-Embedding模型系列将多源数据(文本、图像、视觉文档和视频)映射到共同的高维语义空间。


高精度重排序(Reranker)


作为 Embedding 模型的补充,Qwen3-VL-Reranker 接收任意模态组合的查询与文档对(eg:图文查询匹配图文文档),输出精确的相关性分数。在实际应用中,二者常协同工作:Embedding 负责快速召回Reranker 负责精细化重排序,构成“两阶段检索流程”,显著提升最终结果精度。


卓越的实用性


该系列继承了 Qwen3-VL 的多语言能力,支持超过 30 种语言,适合全球化部署。模型提供灵活的向量维度选择、任务指令定制,以及量化后仍保持的优秀性能,便于开发者集成到现有系统中。


多模态检索新标杆,Qwen3-VL-Embedding&Reranker开源!


多模态检索新标杆,Qwen3-VL-Embedding&Reranker开源!


在 MMEB-v2、MMTEB 等权威多模态检索基准测试中,Qwen3-VL 系列模型展现出了强劲实力。


Qwen3-VL-Embedding


Qwen3-VL-Embedding-8B 模型在 MMEB-V2 上取得了业界领先的结果,超越了所有先前的开源模型和闭源商业服务。


在纯文本多语言 MMTEB 基准测试上,Qwen3-VL-Embedding 模型与同等规模的纯文本 Qwen3-Embedding 模型相比虽然有少许的性能差距。但与评测排行榜上其他同等规模的模型相比,它仍然展现出极具竞争力的性能表现。


多模态检索新标杆,Qwen3-VL-Embedding&Reranker开源!


图 2:Qwen3-VL-Embedding 在 MMEB-v2 和 MMTEB 评测集上的性能对比。


Qwen3-VL-Reranker


我们使用了MMEB-v2 和 MMTEB 检索基准中各子任务的检索数据集进行评测。对于视觉文档检索,我们采用了 JinaVDR 和 ViDoRe v3 数据集。


评测结果表明,所有 Qwen3-VL-Reranker 模型的性能均持续优于基础 Embedding 模型和基线 Reranker 模型,其中 8B 版本在大多数任务中达到了最佳性能。


多模态检索新标杆,Qwen3-VL-Embedding&Reranker开源!


这些性能表现的背后,是针对多模态检索流程量身定制的架构设计。


多模态检索新标杆,Qwen3-VL-Embedding&Reranker开源!


Qwen3-VL-Embedding 和 Qwen3-VL-Reranker 采用了不同的架构设计,分别针对检索流程的不同阶段进行优化。


多模态检索新标杆,Qwen3-VL-Embedding&Reranker开源!


图 2:Qwen3-VL-Embedding 和 Qwen3-VL-Reranker 架构概览。左侧为 Embedding 模型的双塔独立编码架构,右侧为 Reranker 模型的单塔交叉注意力架构。


Qwen3-VL-Embedding 采用双塔架构,可以高效地将不同模态的内容独立编码为统一的向量表示,特别适合处理海量数据的并行计算。


  • Embedding 模型接收单模态或混合模态输入,并将其映射为高维语义向量。我们提取基座模型最后一层中对应 [EOS] token 的隐藏状态向量,作为输入的最终语义表示。这种方法确保了大规模检索所需的高效独立编码能力。


Qwen3-VL-Reranker 采用单塔架构,通过内部的交叉注意力机制,深度分析查询与文档之间的语义关联,从而输出精确的相关性分数。


  • 在实际工作中,Reranking 模型接收输入对 (Query, Document) 并进行联合编码。它利用基座模型内的交叉注意力机制,实现 Query 和 Document 之间更深层、更细粒度的跨模态交互和信息融合。模型最终通过预测两个特殊 token(yes 和 no)的生成概率来表达输入对的相关性分数。


多模态检索新标杆,Qwen3-VL-Embedding&Reranker开源!


多模态检索新标杆,Qwen3-VL-Embedding&Reranker开源!


Embedding 和 Reranking 模型通常在检索系统中协同使用,形成高效的两阶段检索流程:


1、召回阶段:Embedding模型执行初始召回,从海量数据中快速检索出候选结果。


2、重排序阶段:Reranking模型对候选结果进行精细化排序,呈现最精确的结果。


Embedding 模型使用示例


from scripts.qwen3_vl_embedding import Qwen3VLEmbedder

import numpy as np

import torch


# Define a list of query texts

queries = [

    {"text": "A woman playing with her dog on a beach at sunset."},

    {"text": "Pet owner training dog outdoors near water."},

    {"text": "Woman surfing on waves during a sunny day."},

    {"text": "City skyline view from a high-rise building at night."}

]


# Define a list of document texts and images

documents = [

    {"text": "A woman shares a joyful moment with her golden retriever on a sun-drenched beach at sunset, as the dog offers its paw in a heartwarming display of companionship and trust."},

    {"image": "https://qianwen-res.oss-cn-beijing.aliyuncs.com/Qwen-VL/assets/demo.jpeg"},

    {"text": "A woman shares a joyful moment with her golden retriever on a sun-drenched beach at sunset, as the dog offers its paw in a heartwarming display of companionship and trust.", "image": "https://qianwen-res.oss-cn-beijing.aliyuncs.com/Qwen-VL/assets/demo.jpeg"}

]


# Specify the model path

model_name_or_path = "Qwen/Qwen3-VL-Embedding-2B"


# Initialize the Qwen3VLEmbedder model

model = Qwen3VLEmbedder(model_name_or_path=model_name_or_path)

# We recommend enabling flash_attention_2 for better acceleration and memory saving,

# model = Qwen3VLEmbedder(model_name_or_path=model_name_or_path, dtype=torch.float16, attn_implementation="flash_attention_2")


# Combine queries and documents into a single input list

inputs = queries + documents


embeddings = model.process(inputs)


# Compute similarity scores between query embeddings and document embeddings

similarity_scores = (embeddings[:4] @ embeddings[4:].T)


# Print out the similarity scores in a list format

print(similarity_scores.tolist())


# [[0.83203125, 0.74609375, 0.73046875], [0.5390625, 0.373046875, 0.48046875], [0.404296875, 0.326171875, 0.357421875], [0.1298828125, 0.06884765625, 0.10595703125]]


Reranking 模型使用示例


from scripts.qwen3_vl_reranker import Qwen3VLReranker

import numpy as np

import torch


# Specify the model path

model_name_or_path = "Qwen/Qwen3-VL-Reranker-2B"


# Initialize the Qwen3VLEmbedder model

model = Qwen3VLReranker(model_name_or_path=model_name_or_path)

# We recommend enabling flash_attention_2 for better acceleration and memory saving,

# model = Qwen3VLReranker(model_name_or_path=model_name_or_path, dtype=torch.float16, attn_implementation="flash_attention_2")


# Combine queries and documents into a single input list


inputs = {

    "instruction": "Retrieval relevant image or text with user's query",

    "query": {"text": "A woman playing with her dog on a beach at sunset."},

    "documents": [

        {"text": "A woman shares a joyful moment with her golden retriever on a sun-drenched beach at sunset, as the dog offers its paw in a heartwarming display of companionship and trust."},

        {"image": "https://qianwen-res.oss-cn-beijing.aliyuncs.com/Qwen-VL/assets/demo.jpeg"},

        {"text": "A woman shares a joyful moment with her golden retriever on a sun-drenched beach at sunset, as the dog offers its paw in a heartwarming display of companionship and trust.", "image": "https://qianwen-res.oss-cn-beijing.aliyuncs.com/Qwen-VL/assets/demo.jpeg"}

    ],

    "fps": 1.0

}


scores = model.process(inputs)

print(scores)

# [0.8408790826797485, 0.6197134852409363, 0.7778129577636719]


我们期待与社区共同探索更通用、更强大的多模态检索能力,如需获取更多使用示例,欢迎访问 GitHub 仓库:https://github.com/QwenLM/Qwen3-VL-Embedding


魔搭 ModelScope:


https://modelscope.cn/collections/Qwen/Qwen3-VL-Embedding


https://modelscope.cn/collections/Qwen/Qwen3-VL-Reranker


文章来自于微信公众号 “通义大模型”,作者 “通义大模型”

AITNT-国内领先的一站式人工智能新闻资讯网站
AITNT资源拓展
根据文章内容,系统为您匹配了更有价值的资源信息。内容由AI生成,仅供参考
1
RAG

【开源免费】graphrag是微软推出的RAG项目,与传统的通过 RAG 方法使用向量相似性作为搜索技术不同,GraphRAG是使用知识图谱在推理复杂信息时大幅提高问答性能。

项目地址:https://github.com/microsoft/graphrag

【开源免费】Dify是最早一批实现RAG,Agent,模型管理等一站式AI开发的工具平台,并且项目方一直持续维护。其中在任务编排方面相对领先对手,可以帮助研发实现像字节扣子那样的功能。

项目地址:https://github.com/langgenius/dify


【开源免费】RAGFlow是和Dify类似的开源项目,该项目在大文件解析方面做的更出色,拓展编排方面相对弱一些。

项目地址:https://github.com/infiniflow/ragflow/tree/main


【开源免费】phidata是一个可以实现将数据转化成向量存储,并通过AI实现RAG功能的项目

项目地址:https://github.com/phidatahq/phidata


【开源免费】TaskingAI 是一个提供RAG,Agent,大模型管理等AI项目开发的工具平台,比LangChain更强大的中间件AI平台工具。

项目地址:https://github.com/TaskingAI/TaskingAI