面向对象的图像标题的后门攻击
研究指出多模态对比学习方法训练在无噪声且未分类的数据集上可能导致后门和毒化攻击成为重要的威胁。通过少量的毒化数据,可以影响模型分类测试图片的准确性,这显然会影响训练数据集的质量。
Jun, 2021
本研究发现在使用第三方资源训练深度神经网络时容易出现后门威胁,尤其对目标检测等关键应用程序造成威胁。通过无目标特点的简单而有效的毒药后门攻击,我们成功地将后门嵌入目标模型,这可以使模型无法检测到任何与我们的触发模式带有标记的物体。我们在基准数据集上进行了广泛的实验,表明这种方法在数字和现实世界的应用都非常有效,并且对潜在防御手段具有抵御力。
Nov, 2022
该论文研究了基于深度学习的认证系统对于后门攻击的脆弱性,特别是通过数据注入的后门攻击,通过注入极少的毒数据,攻击者可以成功实现攻击,进而窃取敏感信息,从而为后续研究防御策略提供了研究价值。
Dec, 2017
研究表明 DNN 模型在语义分割任务中同样面临后门攻击威胁,为了在物体级别进行更复杂的操作,提出了一个新的攻击范例 ——fine-grained attack,成功构造了只污染了极小部分训练数据的攻击样本。
Mar, 2021
训练大规模数据集很昂贵,因此一种模型仅训练一次并多次使用。我们展示了一种更高效的通用数据中毒攻击方法,通过少量的中毒样本,可以控制从任意源类到任意目标类的误分类。我们的触发器利用了一种称为跨类中毒可转移性的现象,从而使模型对其他类别的触发器更易受攻击。我们通过仅中毒训练数据集的 0.15%来控制高达 6,000 个类的模型的有效性和鲁棒性。
Nov, 2023
本文提出了一种新的策略,旨在通过利用图像缩放攻击来隐藏后门和毒化攻击,并探讨了检测图像缩放攻击的防御。同时证明了该策略对各种毒化方案都可行,但现有的检测防御措施不足以揭示我们的操作。
Mar, 2020
本文研究了深度图像分类模型中毒的问题,提出了两种防御方案进行后处理,利用少量的受信任的图像标签对修复模型,防御效果优于现有的方案,并指出了检测 / 鲁棒性权衡关系和攻击的适应能力问题。
May, 2023
本文提出了一种优化反向工程方法,通过检测、鉴定和逆向工程带有后门模式的图像,以在训练过程中防御起源类上的各种对抗攻击,以达到 CIFAR-10 中新的最佳性能。
Oct, 2020
通过对深度学习物体检测算法进行攻击,我们提出了一种简单而有效的后门攻击方法,特别针对物体消失攻击和物体生成攻击,实验证明我们的攻击方法在两个基准物体检测数据集上的攻击成功率超过 92%,而污染率仅为 5%。
Jul, 2023