Aug, 2024

样本无关的对抗扰动用于视觉-语言预训练模型

TL;DR本研究解决了视觉-语言预训练模型在面对细微、故意设计的扰动时的脆弱性,提出了一种新颖的方法通过多模态决策边界生成通用的样本无关扰动。研究发现,该方法在视觉-语言任务中有效地识别出可用于削弱模型检索性能的方向,对不同模型和数据集具有良好的迁移性。