3D 点云分类器的后门攻击
本文提出了两种针对点云的后门攻击方法:有毒标签后门攻击和干净标签后门攻击,通过操纵三维数据特征来优化加入新任务,实验表明有毒标签后门攻击成功率高达 95% 以上,而干净标签后门攻击较为隐蔽,成功率约为 50% 左右,这些攻击方法为提高三维深度模型的鲁棒性提供了基准。
Mar, 2021
CloudFort 是一种新颖的防御机制,通过空间分割和集成预测技术,有效缓解了后门触发的影响,增强了三维点云分类器对后门攻击的鲁棒性,同时不影响其在干净数据上的准确性,从而为实际应用中基于点云的系统的可信性和可靠性迈出了重要的一步。
Apr, 2024
本文提出了一种基于反向工程和期望可转移性统计量的检测框架,旨在解决在无法访问分类器的训练集和其他清洁参考分类器的情况下检测深度神经网络分类器遭受后门攻击的问题,该框架能够在多个数据集上取得非常优异的表现,且适用于具有多个攻击的多类情况。
Jan, 2022
在这篇论文中,我们提出了一种适应被攻击对象不同大小的可变大小后门触发器,克服了视点和被攻击对象之间距离引起的干扰。此外,我们提出了一种名为恶意对抗训练的后门训练方法,使后门对象检测器能够学习带有物理噪声的触发器特征。实验结果显示,这种强健性后门攻击能够提高在现实世界中的攻击成功率。
Sep, 2023
MirrorAttack 是一种新颖有效的 3D 后门攻击方法,通过使用自编码器在干净的点云中嵌入触发器,避免了复杂的手动设计,同时保证了触发器的不可察觉性。
Mar, 2024
本文提出了一种优化反向工程方法,通过检测、鉴定和逆向工程带有后门模式的图像,以在训练过程中防御起源类上的各种对抗攻击,以达到 CIFAR-10 中新的最佳性能。
Oct, 2020
该论文提出了一种基于聚类和中心点分析的通用防御策略,该策略可以检测深度神经网络模型是否受到后门攻击,并且不受攻击类型的限制。通过实验证明,该防御方法对各种类型的后门攻击都非常有效。
Jan, 2023
本研究发现在使用第三方资源训练深度神经网络时容易出现后门威胁,尤其对目标检测等关键应用程序造成威胁。通过无目标特点的简单而有效的毒药后门攻击,我们成功地将后门嵌入目标模型,这可以使模型无法检测到任何与我们的触发模式带有标记的物体。我们在基准数据集上进行了广泛的实验,表明这种方法在数字和现实世界的应用都非常有效,并且对潜在防御手段具有抵御力。
Nov, 2022
本篇文章提出了四种物体检测中的后门攻击: Object Generation 攻击;Regional Misclassification 攻击;Global Misclassification 攻击和 Object Disappearance 攻击。此外,作者还提出了一个名为 Detector Cleanse 的基于熵的运行时检测框架,以识别任何 deployed 物体检测器的污染测试样本。
May, 2022
通过分析训练数据的结构信息,我们对反向门攻击问题提出了一种不同的方法,指出这些攻击在一般情况下是不可能被检测到的。基于此观察,我们重新审视了现有的反向门攻击防御措施并对其隐含的假设进行了表征。最后,基于假设条件,我们提出了一种新的原始方法来检测反向门攻击,并开发了一个具有理论保证且实用的检测算法。
Jul, 2023