首个开源多模态Deep Research Agent来了。
整合了网页浏览、图像搜索、代码解释器、内部 OCR 等多种工具,通过全自动流程生成高质量推理轨迹,并用冷启动微调和强化学习优化决策,使模型在任务中能自主选择合适的工具组合和推理路径。
假设你让一个 AI 回答这样一个问题:
“在这张图所示动物的 Wikipedia 页面上,2020 年之前带有 ‘visual edit’ 标签的修订次数是多少?”
听起来不复杂,但要得到正确答案,需要经过多个环节:
1 从图像中识别出动物(它是一只海鹦Atlantic puffin,而不是外形相似的鹈鹕、企鹅或海鸥)。
2 找到对应的 Wikipedia 页面并进入历史版本记录。
3 筛选出 2020 年之前带有 “visual edit” 标签的版本,并进行精确计数。
从上面案例可以看出,要解决这类问题,光有感知和理解还不够,Agent还需要能够制定计划、灵活调用不同工具、在推理过程中不断验证和修正方向。
这类跨模态、跨工具、多步骤的任务,需要具备深度研究(Deep Research)能力的Agent才能有效应对。
WebWatcher 的技术方案覆盖了从数据构建到训练优化的完整链路,核心目标是让多模态Agent在高难度多模态深度研究任务中具备灵活推理和多工具协作能力。整个方法包含三大环节:
1 多模态高难度数据生成:构建具备复杂推理链和信息模糊化的训练数据;
2 高质量推理轨迹构建与后训练:生成贴近真实多工具交互的推理轨迹,并通过监督微调(SFT)完成初步能力对齐。然后利用 GRPO 在复杂任务环境中进一步提升模型的决策能力与泛化性;
3 高难度基准评测:构建并使用 BrowseComp-VL 对模型的多模态深度推理能力进行验证。
现有大多数 VQA 数据集集中于单步感知任务,缺乏规划性与深度推理需求,难以支撑多模态深度研究代理的训练。为此,研究团队设计了一个全自动多模态数据生成流程,目标是在真实互联网知识分布下生成复杂、跨模态、链路不确定的任务样本。
随机游走收集跨模态知识链
研究团队在多源网页(文本、图片、混合页面)中进行随机游走采样,构建多领域实体图谱。不同于传统的线性多跳问答链,这种图谱连接稠密、路径不固定,问题的解决路线难以预设,逼迫模型探索性地组合视觉信息。
信息模糊化提升不确定性
在生成问题时,研究团队刻意隐藏关键信息(如将“2019 年”替换为“21 世纪初”、将实体名改为描述性短语),并在视觉部分引入模糊指代词描述,使得模型无法依赖简单模式匹配,必须进行跨模态推理。
文本-视觉联合转换
所有复杂问题(QA) 样本通过 QA-to-VQA 转换模块扩展为多模态版本,将图谱中的部分实体或关系替换为图片、图表或网页截图,使问题天然依赖跨模态理解能力。
经过多阶段过滤,包括语义合理性检查、视觉相关性验证、推理链长度控制,研究团队得到了一个大规模、高质量的多模态推理数据集,能够覆盖多种复杂推理模式。
在高难度训练数据的基础上,模型还需要学习如何调用工具和如何在推理中动态切换策略。然而,现有推理模型在长链多工具任务中存在两个问题:
1 思维链条冗长、模板化,缺乏跨任务的适应性;
2 工具调用格式和角色差异大,直接采集到的轨迹难以直接用于训练。
为此,研究团队提出了Action-Observation 驱动的轨迹生成方法:
随后,研究团队基于这些高质量轨迹进行监督微调(SFT),让 WebWatcher 在训练初期快速掌握多模态 ReAct 式推理和工具调用的基本模式,为后续的强化学习阶段打下基础。
在完成冷启动后,WebWatcher进入强化学习阶段,用GRPO进一步提升多模态Agent在复杂环境下的决策能力。模型严格结合格式正确性与答案准确性双重标准设计奖励,对多步工具调用的连贯性和最终答案的准确性均予以关注,从而提升多模态决策链的可靠性。
为了全面验证 WebWatcher 的能力,研究团队提出了BrowseComp-VL,它是 BrowseComp 在视觉-语言任务上的扩展版本,设计目标是逼近人类专家的跨模态研究任务难度。
该基准具有以下特点:
- 任务长且信息模糊化:问题往往包含多个模糊实体描述,需要跨网页、跨模态搜索与整合;
- 多工具协作必要性:任务无法仅靠感知或文本检索完成,必须结合网页浏览、图像检索、OCR、代码执行等多种工具;
- 真实网络环境:测试样本来自真实网页与图像资源,保持复杂性与不可预测性。
在多轮严格评测中,WebWatcher 在四大核心领域全面领先于当前主流的开源与闭源多模态大模型,显示出其在复杂推理、信息检索、知识整合以及聚合类信息寻优等任务上的强劲实力。
复杂推理(HLE-VL)
在人类终极考试(Humanity’s Last Exam,HLE-VL)这一多步复杂推理基准上,WebWatcher以13.6%的Pass@1分数一举夺魁,大幅领先于GPT-4o(9.8%)、Gemini2.5-flash(9.2%)、Qwen2.5-VL-72B(8.6%)等代表性模型。充分证明了其在高难度知识融合与链式决策中的推理能力。
信息检索能力(MMSearch)
在更贴近真实多模态搜索的MMSearch评测中,WebWatcher 同样表现卓越,Pass@1得分高达55.3%,相比Gemini2.5-flash(43.9%)和GPT-4o(24.1%)等大幅领先,展现了极高的检索精准性和复杂场景下的信息聚合能力。
知识+检索整合(LiveVQA)
LiveVQA是知识推理与外部信息获取深度协同的典型场景。WebWatcher的Pass@1成绩达到58.7%,领先Gemini2.5-flash(41.3%)、Qwen2.5-VL-72B(35.7%)和GPT-4o(34.0%),充分体现了其在知识调用、事实核查与实时信息融合等多维技能上的系统性优势。
信息寻优与聚合(BrowseComp-VL)
在最具综合挑战的BrowseComp-VL基准(信息聚合型任务)上,WebWatcher 以27.0%的平均得分(Pass@1)遥遥领先,于GPT-4o(13.4%)、Gemini2.5-flash(13.0%)、Qwen2.5-VL-72B(11.5%)、Claude-3.7(11.2%)等国内外主流旗舰模型,成绩提升超过一倍。该基准涵盖了跨网页、多实体、模糊表达等严苛考验,彰显了WebWatcher 在复杂信息寻优与聚合领域的绝对能力优势。
综合来看,WebWatcher不仅在单一任务维度实现领先,更在复合型任务、跨模态复杂推理及真实信息检索等方面,奠定了新一代开源多模态Agent的领先地位。
arxiv:https://arxiv.org/abs/2508.05748
github仓库:https://github.com/Alibaba-NLP/WebAgent
文章来自于微信公众号“量子位”。
【开源免费】AutoGPT是一个允许用户创建和运行智能体的(AI Agents)项目。用户创建的智能体能够自动执行各种任务,从而让AI有步骤的去解决实际问题。
项目地址:https://github.com/Significant-Gravitas/AutoGPT
【开源免费】MetaGPT是一个“软件开发公司”的智能体项目,只需要输入一句话的老板需求,MetaGPT即可输出用户故事 / 竞品分析 / 需求 / 数据结构 / APIs / 文件等软件开发的相关内容。MetaGPT内置了各种AI角色,包括产品经理 / 架构师 / 项目经理 / 工程师,MetaGPT提供了一个精心调配的软件公司研发全过程的SOP。
项目地址:https://github.com/geekan/MetaGPT/blob/main/docs/README_CN.md
【开源免费】graphrag是微软推出的RAG项目,与传统的通过 RAG 方法使用向量相似性作为搜索技术不同,GraphRAG是使用知识图谱在推理复杂信息时大幅提高问答性能。
项目地址:https://github.com/microsoft/graphrag
【开源免费】Dify是最早一批实现RAG,Agent,模型管理等一站式AI开发的工具平台,并且项目方一直持续维护。其中在任务编排方面相对领先对手,可以帮助研发实现像字节扣子那样的功能。
项目地址:https://github.com/langgenius/dify
【开源免费】RAGFlow是和Dify类似的开源项目,该项目在大文件解析方面做的更出色,拓展编排方面相对弱一些。
项目地址:https://github.com/infiniflow/ragflow/tree/main
【开源免费】phidata是一个可以实现将数据转化成向量存储,并通过AI实现RAG功能的项目
项目地址:https://github.com/phidatahq/phidata
【开源免费】TaskingAI 是一个提供RAG,Agent,大模型管理等AI项目开发的工具平台,比LangChain更强大的中间件AI平台工具。
项目地址:https://github.com/TaskingAI/TaskingAI
【免费】ffa.chat是一个完全免费的GPT-4o镜像站点,无需魔法付费,即可无限制使用GPT-4o等多个海外模型产品。
在线使用:https://ffa.chat/
【开源免费】XTuner 是一个高效、灵活、全能的轻量化大模型微调工具库。它帮助开发者提供一个简单易用的平台,可以对大语言模型(LLM)和多模态图文模型(VLM)进行预训练和轻量级微调。XTuner 支持多种微调算法,如 QLoRA、LoRA 和全量参数微调。
项目地址:https://github.com/InternLM/xtuner