DeepSeek-OCR是「长文本理解」未来方向吗?中科院新基准给出答案

AITNT-国内领先的一站式人工智能新闻资讯网站
# 热门搜索 #
DeepSeek-OCR是「长文本理解」未来方向吗?中科院新基准给出答案
5096点击    2026-01-06 09:30

DeepSeek-OCR的视觉文本压缩(VTC)技术通过将文本编码为视觉Token,实现高达10倍的压缩率,大幅降低大模型处理长文本的成本。但是,视觉语言模型能否理解压缩后的高密度信息?中科院自动化所等推出VTCBench基准测试,评估模型在视觉空间中的认知极限,包括信息检索、关联推理和长期记忆三大任务。


近期,DeepSeek-OCR凭借其创新的「视觉文本压缩」(Vision-Text Compression, VTC)范式引发了技术圈的高度关注,以极少的视觉Token实现高效的文本信息编码,为长文本处理开辟了新路径。


这一突破性进展让大模型处理超长文档的成本大幅降低,但也抛出了一个核心问题当长文本被高度压缩为2D图像后,视觉语言模型(VLM)真的能理解其中的内容吗?


为了解答这一疑问,来自中科院自动化所、中国科学院香港创新研究院等机构的研究团队推出了首个专门针对视觉-文本压缩范式的基准测试——VTCBench。


DeepSeek-OCR是「长文本理解」未来方向吗?中科院新基准给出答案

论文链接:https://arxiv.org/abs/2512.15649

VTCBench链接: https://github.com/Moenupa/VTCBench

VLMEvalKit链接:https://github.com/bjzhb666/VLMEvalKit

Huggingface链接: https://huggingface.co/datasets/MLLM-CL/VTCBench


DeepSeek-OCR是「长文本理解」未来方向吗?中科院新基准给出答案

图 1:视觉-文本压缩 (VTC) 流程演示及VTCBench


与传统大模型直接读取成千上万的纯文本Token不同,VTC范式(如DeepSeek-OCR)先将长文档渲染 (Rendering)为高密度的2D图像,再由视觉编码器转化为少量的视觉Token


该技术可实现2倍至10倍的Token压缩率,显著降低了长文本处理时的计算与显存开销。


VTCBench现已在GitHub和Huggingface全面开源,其衍生版本VTCBench-Wild是一个统一的、全方位评估模型在复杂现实场景下视觉文本压缩的鲁棒性,现已集成到VLMevalkit。


核心使命

衡量「看得见」之后的「看得懂」


目前的VLM也许能出色地完成OCR识别,但在处理 VTC 压缩后的高密度信息时,其长文本理解能力仍存疑。


VTCBench 通过三大任务,系统性地评估模型在视觉空间中的认知极限:


1. VTC-Retrieval (信息检索):在视觉「大海」中寻找特定事实的「针」(Needle-in-a-Haystack),测试模型对空间分布信息的捕捉能力。


2. VTC-Reasoning (关联推理)挑战模型在几乎没有文本重叠的情况下,通过关联推理寻找事实,超越单纯的词汇检索。


3. VTC-Memory (长期记忆)模拟超长对话,评估模型在视觉压缩框架下,抵御时间与结构性信息衰减的能力。


此外,团队同步推出了VTCBench-Wild,引入 99 种不同的渲染配置(涵盖多种字体、字号、行高及背景),全方位检测模型在复杂现实场景下的鲁棒性。


揭秘视觉压缩背后的认知瓶颈


DeepSeek-OCR是「长文本理解」未来方向吗?中科院新基准给出答案

图 2:VTCBench针对模型在长图像中检索信息的热力图。横轴代表上下文长度,纵轴代表关键事实(Needle)在文档中的深度。展现了模型表现的「迷失」与突破。


测试结果呈现出显著的 「U 型曲线」:与文本模型类似,视觉语言模型(VLM)能够精准捕捉开头和结尾的信息,但对于中间部分的事实,理解能力会随着文档变长而剧烈衰退。这证明了即使在视觉空间,模型依然存在严重的「空间注意力偏见」,是未来 VTC 架构优化的关键方向。


行业洞察

视觉压缩是长文本的终局吗?


DeepSeek-OCR是「长文本理解」未来方向吗?中科院新基准给出答案


通过对GPT、Gemini、Claude、QwenVL、InternVL、Gemma、KimiVL、Seed1.5等10余种尖端模型的深度评测,可以发现:


虽然VTC极大提升了效率,但现有VLM在复杂推理和记忆任务上的表现仍普遍弱于纯文本LLM;


消融实验证明,信息密度是决定模型性能的关键因素,直接影响视觉编码器的识别精度;


Gemini-3-Pro在VTCBench-Wild上表现惊艳,其视觉理解能力已几乎追平其纯文本基准,证明了VTC是实现大规模长文本处理的极其可行的路径!


总结


如果说传统的长文本处理是「逐字阅读」,那么DeepSeek-OCR所引领的VTC范式就是「过目成诵」的摄影式记忆。VTCBench的出现,正是为了确保模型在拥有这种「超能力」的同时,依然能够读懂字里行间的微言大义。


参考资料:

https://arxiv.org/abs/2512.15649


文章来自于“新智元”,作者 “LRST”。

AITNT-国内领先的一站式人工智能新闻资讯网站
AITNT资源拓展
根据文章内容,系统为您匹配了更有价值的资源信息。内容由AI生成,仅供参考
1
RAG

【开源免费】graphrag是微软推出的RAG项目,与传统的通过 RAG 方法使用向量相似性作为搜索技术不同,GraphRAG是使用知识图谱在推理复杂信息时大幅提高问答性能。

项目地址:https://github.com/microsoft/graphrag

【开源免费】Dify是最早一批实现RAG,Agent,模型管理等一站式AI开发的工具平台,并且项目方一直持续维护。其中在任务编排方面相对领先对手,可以帮助研发实现像字节扣子那样的功能。

项目地址:https://github.com/langgenius/dify


【开源免费】RAGFlow是和Dify类似的开源项目,该项目在大文件解析方面做的更出色,拓展编排方面相对弱一些。

项目地址:https://github.com/infiniflow/ragflow/tree/main


【开源免费】phidata是一个可以实现将数据转化成向量存储,并通过AI实现RAG功能的项目

项目地址:https://github.com/phidatahq/phidata


【开源免费】TaskingAI 是一个提供RAG,Agent,大模型管理等AI项目开发的工具平台,比LangChain更强大的中间件AI平台工具。

项目地址:https://github.com/TaskingAI/TaskingAI