
视觉语言模型易受攻击?西安交大等提出基于扩散模型的对抗样本生成新方法
视觉语言模型易受攻击?西安交大等提出基于扩散模型的对抗样本生成新方法对抗攻击,特别是基于迁移的有目标攻击,可以用于评估大型视觉语言模型(VLMs)的对抗鲁棒性,从而在部署前更全面地检查潜在的安全漏洞。然而,现有的基于迁移的对抗攻击由于需要大量迭代和复杂的方法结构,导致成本较高
来自主题: AI技术研报
6887 点击 2024-12-28 14:01
对抗攻击,特别是基于迁移的有目标攻击,可以用于评估大型视觉语言模型(VLMs)的对抗鲁棒性,从而在部署前更全面地检查潜在的安全漏洞。然而,现有的基于迁移的对抗攻击由于需要大量迭代和复杂的方法结构,导致成本较高