# 热门搜索 #
搜索
AI读论文新神器:多栏密集文字、中英图文混排文档都能读的多模态大模型Fox|旷视
8065点击    2024-06-01 18:49

虽然多模态大模型都能挑西瓜了,但理解复杂文档方面还是差点意思。


面对文字密集、多栏混排等文档时往往力不从心,区域级别的细粒度理解,就更是无从谈起了。


最近,旷视团队打造了一支多模态大模型的“点读笔”——Fox,轻松实现对8页文档(中英混合,单栏多栏格式混合的极端场景)的交互式感知理解。



对于信息密集的PDF文档,Fox支持高可控性的细粒度理解,比如在用户感兴趣区域内进行文字识别、段落翻译以及页面内部的图片内容描述等。


论文中,团队进一步突破了对于文档的视觉感知理解的上限,高密度的信息被真正压缩,LVLM真正地“看”懂图,才能真正做好、做出能用的文档多模大模型。


正所谓“一图胜千言”—— one image token >> one text token



接下来,看看Fox在实战中表现如何?


中英混排,单栏多栏组合都不怕


对于中英混合、单栏多栏混合的8页PDF文档,可实现任意区域的OCR:



下图左侧展示了8页文档内跨页的VQA,右侧展示了双栏中文页面的前景OCR。



双栏密集英文页面的前景OCR:



在页面内图片描述方面,Fox能给出文档内内容关联的回答(young Dual Language Learners)。


当然Fox还支持line-level OCR,以及对RoI区域的翻译、总结等。



Fox可以结合页面内文字,认识到这是一张关于global seismic hazards的图。此外,Fox还支持RoI内的latex格式转换,例如下面的table转latex。Fox还支持更加灵活的颜色引导的RoI区域OCR。



对于卡通绘本,也可以哪里不会点哪里:



电影海报和自然场景的对话问答,Fox给出了非常有趣的答案(根据电影海报下面的文字给出了角色来源):



那么Fox是如何做到这些的呢?


多词表协同,多页面文档统一打包


在细粒度文档理解上,Fox有着三大创新:


  • 精准定位


Fox引入了一系列基于位置的文本提示,如点击位置、拖动框、涂色框等。这使得模型可以直接定位到感兴趣的任意区域,而不受文档格式的限制。同时,Fox还把全页OCR重新定义为”前景聚焦”任务,进一步增强了对密集文字的感知。


  • 多视觉词表协同


为了更好地理解图文混排页面,Fox采用了两个不同特长的视觉词表——CLIP主攻自然图像,Vary专攻人工文档。但单纯叠加两种数据,往往会造成视觉偏置。为此,Fox合成了大量含混合视觉元素的数据,迫使两个视觉分支充分协作。


  • 页面打包


得益于高压缩率(每页1024×1024图像对应256个图像token),Fox将多页面文档统一打包输入。这不仅让跨页面的上下文理解成为可能,也大幅降低了计算开销。值得一提的是,这种打包微调模式并不需要重新训练视觉词汇。


在这些创新基础上,Fox模型结构如图所示。



Fox支持单页/多页文档图像输入,所有图像的image token被统一到一个sequence中进行多页文档理解。团队设计了基于point、color、box的prompt,来实现在文档页面上聚焦任意位置。团队合成了图文交织的文档数据,来充分催化两个视觉词表,以更好地适用于实际文档应用场景。


此外,为了促进对文档细粒度理解的研究,作者还打造了一个中英双语的benchmark,已经开源了数据和评测代码,共包含以下9种任务:


  • Page-level OCR


  • Region-level OCR


  • Line-level OCR


  • Color-guided OCR


  • Region-level translation


  • Region-level summary


  • In-document figure caption


  • Multi-page multi-region OCR


  • Cross-page VQA


最后,团队呼吁更多的研究人员能关注到细粒度的单页/多页文档理解,单页的稀疏的问答任务远远不够。


真正做好多模态大模型,视觉编码器的信息压缩率(token转化率)是非常重要的,Fox仅探究了文档这一类应用方向,希望对大家的研究有所帮助。


论文地址:https://arxiv.org/abs/2405.14295


代码地址:https://github.com/ucaslcl/Fox


项目主页:https://ucaslcl.github.io/foxhome/


文章来源于“量子位”,作者“关注前沿科技




AITNT资源拓展
根据文章内容,系统为您匹配了更有价值的资源信息。内容由AI生成,仅供参考
1
微调

【开源免费】XTuner 是一个高效、灵活、全能的轻量化大模型微调工具库。它帮助开发者提供一个简单易用的平台,可以对大语言模型(LLM)和多模态图文模型(VLM)进行预训练和轻量级微调。XTuner 支持多种微调算法,如 QLoRA、LoRA 和全量参数微调。

项目地址:https://github.com/InternLM/xtuner

2
prompt

【开源免费】LangGPT 是一个通过结构化和模板化的方法,编写高质量的AI提示词的开源项目。它可以让任何非专业的用户轻松创建高水平的提示词,进而高质量的帮助用户通过AI解决问题。

项目地址:https://github.com/langgptai/LangGPT/blob/main/README_zh.md

在线使用:https://kimi.moonshot.cn/kimiplus/conpg00t7lagbbsfqkq0