大模型全军覆没,中科院自动化所推出多图数学推理新基准 | CVPR 2025

AITNT-国内领先的一站式人工智能新闻资讯网站
# 热门搜索 #
AITNT-国内领先的一站式人工智能新闻资讯网站 搜索
大模型全军覆没,中科院自动化所推出多图数学推理新基准 | CVPR 2025
6846点击    2025-03-11 17:22

挑战多图数学推理新基准,大模型直接全军覆没?!


事情是这样的。


近日,中国科学院自动化研究所推出多图数学推理全新基准MV-MATH(该工作已被CVPR 2025录用),这是一个精心策划的多图数学推理数据集,旨在全面评估MLLM(多模态大语言模型)在多视觉场景中的数学推理能力。


大模型全军覆没,中科院自动化所推出多图数学推理新基准 | CVPR 2025


结果评估下来发现,GPT-4o仅得分32.1,类o1模型QvQ得分29.3,所有模型均不及格。


大模型全军覆没,中科院自动化所推出多图数学推理新基准 | CVPR 2025


具体咋回事,下面接着看。


给大模型数学推理上难度


截止目前,多模态大模型在数学推理领域展现出了巨大的潜力。


然而,现有的多模态数学基准测试大多局限于单一视觉场景(单图推理),这与现实世界中复杂的多视觉数学应用(多图推理)相去甚远。


基于这一情况,多图数学推理数据集MV-MATH应运而生。


MV-MATH介绍


MV-MATH包含2009个高质量数学问题,涵盖了从K-12教育场景中提取的真实问题。


每个问题都结合了多个图像和文本,形成了图文交错的多视觉场景。


这些问题分为选择题、填空题和多步问答题三种类型,覆盖了11个数学领域,包括解析几何、代数、度量几何、组合学、变换几何、逻辑、立体几何、算术、组合几何、描述性几何和统计学,并分为三个难度级别。


大模型全军覆没,中科院自动化所推出多图数学推理新基准 | CVPR 2025


下图展示了MV-MATH与现有数据集的对比以及分布情况:


(a)与现有数学基准的比较(圆圈大小代表图片数量);(b)每个问题的长度分布;(c)每个问题的图像数量分布。


大模型全军覆没,中科院自动化所推出多图数学推理新基准 | CVPR 2025


数据集特点


(1)多视觉场景


MV-MATH数据集中的每个问题都包含多个图像(2-8个图片),这些图像与文本交织在一起,形成了复杂的多视觉场景。


MV-MATH中的每个问题都是从真实的K-12场景中收集而来,这种设计更接近于现实世界中的数学问题,能够更好地评估MLLM在处理多视觉信息时的推理能力。


(2)丰富的标注


为了确保数据集的质量和可靠性,每个样本都经过了至少两名标注者的交叉验证。标注内容包括问题、答案、详细分析以及图像关联性,为模型评估提供了详细的信息。


(3)多样化的数学领域


MV-MATH涵盖了从基础算术到高级几何的11个数学领域,并根据详细答案的长度划分为3个难度等级,能够全面评估MLLM在不同数学领域的推理能力。


(4)图像关联性


MV-MATH首次引入图像相关性这一特征标签,根据据图像是否相关,数据集被分为两个子集:相互依赖集(Mutually Dependent Set,MD)和独立集(Independent Set,ID)。


在MD子集中,图像之间相互关联,理解一个图像需要参考其他图像;而在ID子集中,图像之间相互独立,可以单独解释。


例如,下图中前两个题目属于相互依赖集,最后一个为题目属于独立集。


大模型全军覆没,中科院自动化所推出多图数学推理新基准 | CVPR 2025


多图推理综合评估


研究团队在MV-MATH上进行了广泛的实验,评测了24个主流开源和闭源多模态大模型。


实验结果表明,即使是最先进的MLLM在多视觉数学任务中也面临着巨大的挑战,其表现与人类能力之间存在显著差距。


大模型全军覆没,中科院自动化所推出多图数学推理新基准 | CVPR 2025


从模型总体表现来看,在MV-MATH数据集上,表现最好的模型是Claude-3.5,其整体准确率为33.9%,远低于人类水平(76.5%)。


其他表现较好的模型还包括GPT-4o(32.1%)、Gemini-1.5-Pro(29.1%)和Qwen-vl-max(26.9%)。


值得注意的是,开源模型LLaVA-OneVision-Chat-72B取得了26.2%的准确率,仅次于Qwen-vl-max。类o1模型QVQ-72B-Preview性能为29.3%,仅次于GPT-4o,这说明慢思考系统在多图推理任务上同样有效。


此外,模型在不同领域的表现也存在差异


在算术领域,Claude-3.5的准确率最高,达到54.2%;而在组合几何领域,其准确率仅为27.0%。


这表明MLLM在处理需要复杂图像理解和推理的领域时存在较大困难。


与此同时,团队针对题目难度模型提示图像关联性以及图像输入方式四个维度对实验结果进行了更细粒度的分析。


大模型全军覆没,中科院自动化所推出多图数学推理新基准 | CVPR 2025


具体而言,如图中(a)所示,在不同难度级别上,模型的表现也有所不同


在简单问题上,GPT-4o的准确率最高,达到40.3%;而在中等难度问题上,Claude-3.5的准确率最高,为37.5%。在困难问题上,所有模型的表现都大幅下降,Claude-3.5的准确率仅为26.6%。


而图(b)表明,对于闭源模型,CoT和few-shot对MV-MATH多图推理并不一定有效。对于所有的开源模型,CoT和few-shot都会降点


在图像关联性上,MD子集包含相互依赖的图像,需要更高水平的跨图像理解。


如图中(c)所示,绝大多数模型在MD子集上的性能均低于ID子集,其中Gemini-1.5-pro的性能差距最大,达到 7.8%。


这一观察结果表明,大多数模型在处理数学场景中的相互依赖图像任务上面临挑战,凸显了MLLM在处理数学多视觉环境中跨图像相互依赖关系的潜在局限性。


至于图像输入方式,如图中(d)所示,结果一致表明,在所有测试模型中,图像序列输入的表现都优于合并输入,这表明保留图像的位置和顺序信息对于多图推理至关重要


序列输入的高性能凸显了结构化视觉信息在增强模型解释和处理复杂数学场景的能力方面的重要性。


小结


随着最近OpenAI o1,DeepSeek-R1等模型的爆火,大家看到了慢思考模型在文本推理上的强大性能。然而目前视觉大模型的慢推理仍然没有一个固定的范式。


本研究通过大量实验证实了MLLM在复杂多视觉感知与图像交叉理解上仍然存在困难,在多图数学推理上存在极大的改进空间。


本研究旨在全面评估MLLM在多视觉场景中的数学推理能力,推动多图数学推理的进一步发展。


论文链接:

https://arxiv.org/abs/2502.20808

主页链接:

https://eternal8080.github.io/MV-MATH.github.io/


文章来自于“量子位”,作者“MV-MATH团队”。


大模型全军覆没,中科院自动化所推出多图数学推理新基准 | CVPR 2025

关键词: AI , 模型训练 , MV-MATH , 人工智能
AITNT-国内领先的一站式人工智能新闻资讯网站
AITNT资源拓展
根据文章内容,系统为您匹配了更有价值的资源信息。内容由AI生成,仅供参考
1
免费使用GPT-4o

【免费】ffa.chat是一个完全免费的GPT-4o镜像站点,无需魔法付费,即可无限制使用GPT-4o等多个海外模型产品。

在线使用:https://ffa.chat/