基于掩码的目标检测隐形后门攻击
本篇文章提出了四种物体检测中的后门攻击: Object Generation 攻击;Regional Misclassification 攻击;Global Misclassification 攻击和 Object Disappearance 攻击。此外,作者还提出了一个名为 Detector Cleanse 的基于熵的运行时检测框架,以识别任何 deployed 物体检测器的污染测试样本。
May, 2022
通过对深度学习物体检测算法进行攻击,我们提出了一种简单而有效的后门攻击方法,特别针对物体消失攻击和物体生成攻击,实验证明我们的攻击方法在两个基准物体检测数据集上的攻击成功率超过 92%,而污染率仅为 5%。
Jul, 2023
本研究发现在使用第三方资源训练深度神经网络时容易出现后门威胁,尤其对目标检测等关键应用程序造成威胁。通过无目标特点的简单而有效的毒药后门攻击,我们成功地将后门嵌入目标模型,这可以使模型无法检测到任何与我们的触发模式带有标记的物体。我们在基准数据集上进行了广泛的实验,表明这种方法在数字和现实世界的应用都非常有效,并且对潜在防御手段具有抵御力。
Nov, 2022
在这篇论文中,我们提出了一种适应被攻击对象不同大小的可变大小后门触发器,克服了视点和被攻击对象之间距离引起的干扰。此外,我们提出了一种名为恶意对抗训练的后门训练方法,使后门对象检测器能够学习带有物理噪声的触发器特征。实验结果显示,这种强健性后门攻击能够提高在现实世界中的攻击成功率。
Sep, 2023
本文第一次证明了现有的目标检测器在数字触发器和实际场景中普遍存在的后门漏洞问题,提出了真实世界物理攻击场景下的攻击方法,并具体研究了三种流行的目标检测算法的鲁棒性与可行性。
Jan, 2022
提出了一种新颖的后门攻击方法,通过使用预训练的受害模型从干净图像中提取低级和高级语义特征,并基于通道注意力生成与高级特征相关联的触发模式,然后使用编码器模型生成受污染的图像,同时维持对后门防御的鲁棒性,实验结果表明,该攻击方法在三个知名图像分类深度神经网络上取得了高攻击成功率,同时具有很好的隐秘性。
May, 2024
本文针对实体物体作为触发器所形成的后门攻击,进行一个详细的实证研究,并探究了针对这种攻击的防御方法。研究发现,实体后门攻击非常成功,尤其是对于关键面部特征高度依赖的系统,而且这些攻击可以规避现有的数字攻击防御去针对后门攻击的核心假设。因此,我们需要针对物理世界中的后门攻击,建立更为强大的防御方法。
Jun, 2020
本文提出了一种新的视频后门攻击方法,使用通用对抗触发器在影响少量训练数据的情况下成功地攻击最新的视频识别模型,并表明这种新方法具有较强的对抗性和鲁棒性,同时能提高图片后门攻击的效果。
Mar, 2020
研究人员提出了一种新的方法,通过破坏模型训练代码中的损失值计算来注入后门,用于展示比以前文献中更强大的后门类型,包括单像素和物理后门以及能将模型转换为隐蔽,侵犯隐私任务的后门,同时无需修改推理时输入。攻击是盲目的:攻击者无法修改训练数据,也无法观察他的代码执行,也无法访问生成的模型。攻击代码在模型训练过程中即时生成受污染的训练输入,并使用多目标优化技术来实现对主任务和后门任务的高准确性。研究人员还提出了如何规避任何已知防御措施的盲目攻击,并提出了新的防御措施。
May, 2020
本文介绍了一种特定类型的数据投毒攻击,即后门注入攻击,讨论了攻击者注入后门到深度学习模型中的方法,并提出了两种在不削弱受害者模型有效性的情况下,难以察觉但能实现模型毒化的后门生成方法。我们进行了广泛的实验评估,并证明即使在最弱的攻击者模型下,这种攻击可以在小的注入率(约为 1%)条件下实现高达 90%以上的攻击成功率。
Aug, 2018