
武大等发布大型视觉语言模型最新安全综述:全面分类攻击策略、防御机制和评估方法
武大等发布大型视觉语言模型最新安全综述:全面分类攻击策略、防御机制和评估方法武汉大学等发布了一篇大型视觉语言模型(LVLMs)安全性的综述论文,提出了一个系统性的安全分类框架,涵盖攻击、防御和评估,并对最新模型DeepSeek Janus-Pro进行了安全性测试,发现其在安全性上存在明显短板。
来自主题: AI技术研报
6343 点击 2025-03-11 16:32
武汉大学等发布了一篇大型视觉语言模型(LVLMs)安全性的综述论文,提出了一个系统性的安全分类框架,涵盖攻击、防御和评估,并对最新模型DeepSeek Janus-Pro进行了安全性测试,发现其在安全性上存在明显短板。
近年来,视觉大模型(Large Vision Language Models, LVLMs)领域经历了迅猛的发展,这些模型在图像理解、视觉对话以及其他跨模态任务中展现出了卓越的能力。然而,随着 LVLMs 复杂性和能力的增长,「幻觉现象」的挑战也日益凸显。
一个5月份完成训练的大模型,无法对《黑神话·悟空》游戏内容相关问题给出准确回答。