本篇文章提出了四种物体检测中的后门攻击: Object Generation 攻击;Regional Misclassification 攻击;Global Misclassification 攻击和 Object Disappearance 攻击。此外,作者还提出了一个名为 Detector Cleanse 的基于熵的运行时检测框架,以识别任何 deployed 物体检测器的污染测试样本。
May, 2022
本研究发现在使用第三方资源训练深度神经网络时容易出现后门威胁,尤其对目标检测等关键应用程序造成威胁。通过无目标特点的简单而有效的毒药后门攻击,我们成功地将后门嵌入目标模型,这可以使模型无法检测到任何与我们的触发模式带有标记的物体。我们在基准数据集上进行了广泛的实验,表明这种方法在数字和现实世界的应用都非常有效,并且对潜在防御手段具有抵御力。
Nov, 2022
在该研究中,我们提出了一种有效的基于掩码的不可见后门攻击目标检测技术,并针对目标消失、目标错误分类和目标生成三种攻击场景进行了全面的实验,以确定有效的防御方法。
Mar, 2024
在这篇论文中,我们提出了一种适应被攻击对象不同大小的可变大小后门触发器,克服了视点和被攻击对象之间距离引起的干扰。此外,我们提出了一种名为恶意对抗训练的后门训练方法,使后门对象检测器能够学习带有物理噪声的触发器特征。实验结果显示,这种强健性后门攻击能够提高在现实世界中的攻击成功率。
Sep, 2023
研究表明 DNN 模型在语义分割任务中同样面临后门攻击威胁,为了在物体级别进行更复杂的操作,提出了一个新的攻击范例 ——fine-grained attack,成功构造了只污染了极小部分训练数据的攻击样本。
Mar, 2021
本文提出了一种新的视频后门攻击方法,使用通用对抗触发器在影响少量训练数据的情况下成功地攻击最新的视频识别模型,并表明这种新方法具有较强的对抗性和鲁棒性,同时能提高图片后门攻击的效果。
Mar, 2020
提出了一种新颖的后门攻击方法,通过使用预训练的受害模型从干净图像中提取低级和高级语义特征,并基于通道注意力生成与高级特征相关联的触发模式,然后使用编码器模型生成受污染的图像,同时维持对后门防御的鲁棒性,实验结果表明,该攻击方法在三个知名图像分类深度神经网络上取得了高攻击成功率,同时具有很好的隐秘性。
May, 2024
该论文提出一种基于黑盒模型的反向工程优化算法,用于检测深度神经网络中嵌入的恶意后门攻击,并通过检测结果进行有效的可靠预测,实验表明其可以有效地应对多种后门攻击。
本文第一次证明了现有的目标检测器在数字触发器和实际场景中普遍存在的后门漏洞问题,提出了真实世界物理攻击场景下的攻击方法,并具体研究了三种流行的目标检测算法的鲁棒性与可行性。
Jan, 2022
在安全关键场景下,研究表明背门攻击可以在不修改神经网络模型的情况下实现,方法是在相机前放置一个精心设计的补丁(即背门补丁),它可以在大部分时间表现正常,并在输入图像包含攻击者控制的触发对象时产生错误预测。
Aug, 2023