探索视觉状态空间模型对后门攻击的鲁棒性
本研究对当前三种有效的深度学习后门漏洞防御策略进行了反欺骗攻击测试,重点考察了不同的任务、模型架构、数据集和防御超参数这些因素,揭示了这些策略存在的两种薄弱环节,从而表明开发深度学习后门攻击防范措施的程序的必要性和局限性。
Apr, 2022
本文提出了一种新颖的隐形后门攻击方法,该方法通过将触发器模式视为一种特殊噪声并以伯努利分布生成参数,从而在不影响正常输入的情况下利用训练集合并夹杂恶意信息,并考虑对多种最新防御措施的效果验证。
May, 2022
本研究探讨了在能力限制内实施黑盒后门攻击的可能性,通过设计后门触发器,攻击者可以在没有参与训练过程或了解目标模型结构的情况下作为图像注释者或供应商从事此类攻击。实验结果表明,我们的方法在黑盒场景中实现了高攻击成功率,并逃过了最先进的后门防御。
Apr, 2023
本文提出了一种名为VSSC-trigger的嵌入稳定扩散模型的新方法,使用文本触发器和良性图像生成对比度适当的图像,并解决了之前的不可见触发器在实际运用时出现的可见扭曲问题。
Jun, 2023
通过对视觉提示学习的后门攻击(BadVisualPrompt),我们发现对模型、提示和输入等级的七种后门防御都要么无效,要么不切合实际,从而表明了视觉提示学习(VPL)的关键性漏洞。
Oct, 2023
通过多个角度对Visual State Space Model (VMamba)的鲁棒性进行全面研究,揭示了其在对抗性攻击、一般鲁棒性、梯度及反向传播过程、图像结构变化等方面的独特弱点和防御能力,为促进计算机视觉应用中深度神经网络的能力提供了宝贵的洞见。
Mar, 2024
综合评估了视觉状态空间模型(VSSMs)在各种扰动场景下的稳健性,并与传统的架构如转换器和卷积神经网络进行了比较,发现其在处理复杂视觉破坏方面的优势和局限性,为该领域的未来研究和改进提供了宝贵的见解。
Jun, 2024
使用指令调优增强大规模视觉语言模型(LVLMs)会提高安全风险,因其开放性可能导致后门攻击。本研究首次经验性地考察了指令调优LVLMs期间后门攻击的普适性,揭示了在实际场景中大多数后门策略的某些限制。通过定量评估对视觉和文本领域存在偏差的六种典型后门攻击在图像字幕基准测试上的普适性,我们的研究结果表明,攻击的普适性与后门触发器与特定图像/模型的不相关性以及触发器模式的偏好相关。此外,我们基于以上关键观察修改了现有的后门攻击方法,在跨域场景的普适性方面取得了显著改进(+86%攻击成功率)。值得注意的是,即使没有访问指令数据集,也可以使用极低的污染率(0.2%)成功毒化多模态指令集,攻击成功率超过97%。本研究强调即使是简单的传统后门策略也对LVLMs构成严重威胁,需要更多关注和深入研究。
Jun, 2024
本研究解决了视觉状态空间模型(VSS)在面对孤立攻击时的脆弱性问题。我们通过系统实验分析SSM机制对VSS模型鲁棒性的影响,发现其对特定触发器更加敏感。同时,我们开发了一种有效的后门攻击策略,经过测试,该模型在多个数据集上表现出较强的性能,但相较于仅由堆叠的门控卷积块构成的门控CNN,鲁棒性仍有提升空间。
Aug, 2024
本研究针对使用不可信来源下载的预训练大型模型面临的安全问题,提出了一种基于视觉变换器(ViTs)的后门攻击方法。研究发现,攻击者可以通过任务特定和泛化的后门攻击,导致目标任务在存在触发器时被破坏,且其他任务不受影响,最大降解率达到89.90%。进一步的分析显示,现有的去后门方法效果有限,最低降解仅降低至73.46%。
Sep, 2024