防御物理可行的图像分类攻击
对于深度神经网络 (DNNs) 的安全性问题,本文重点关注于物理对抗攻击,总结了 150 篇现有的物理对抗攻击的论文,详细分析了物理对抗攻击的特征、媒介、方法及其效果,并探讨了当前的挑战和未来方向。
Sep, 2022
该研究介绍了一种通用的攻击算法,RP2,用于在不同的物理条件下产生强大的视觉对抗扰动,以及一种用于评估物理对抗性的两阶段评估方法,通过黑白贴纸形式的扰动对真实的红绿灯进行攻击,在实验室测试和场地测试结果分别达到 100% 和 84.8% 的目标分类器的误分率。
Jul, 2017
本文提出了一种名为 “deep defense” 的训练方法来解决深度神经网络易受到对抗样本攻击的问题,通过将对抗扰动的正则化器与分类目标相结合,得到的模型能够直接且准确地学习抵御潜在的攻击,实验证明该方法在不同数据集上对比对抗 / Parseval 正则化方法有更好的效果。
Feb, 2018
本文提出了一种利用光影对深度学习图像分类系统进行物理攻击的方法,通过实验发现选择不同的光影模式可以使得 2D 和 3D 物体的分类精度大幅降低。
Oct, 2018
在这篇论文中,提出了一种多功能的防御方法,只需要训练一个模型就能有效抵抗各种未知的对抗性攻击,并且该模型的分类准确率平均提高至 86%,表现比之前研究中提出的其他防御方法更好。在面对 PGD 攻击和 MI-FGSM 攻击时,多功能防御模型甚至超过了基于这两种攻击训练的特定攻击模型,并且鲁棒性检查显示我们的多功能防御模型在攻击强度下表现稳定。
Mar, 2024
本文通过使用超空间投影来提出了一种新的针对图像分类器的通用防御机制,可以提高深度学习模型对抗攻击的鲁棒性,实验结果显示通过优化攻击和生成对抗攻击测试其在 MNIST 数据集上的成功率可以至少减少 89% 和 78%。
Jun, 2023
我们分析了攻击技术并提出了一种强大的防御方法,通过利用对象的形状、纹理和位置,成功降低了 20% 以上的模型置信度。利用修复预处理技术,有效地恢复了原始的置信水平,展示了强大防御在减轻这些威胁中的重要性。我们的修复防御方法在仿真像素化的基于补丁的物理对抗攻击中显著提高了模型的韧性,实现了高精度和可靠的定位,尽管受到了对抗性攻击。这项工作推动了对抗挑战中对象检测和分类网络的韧性和可靠性的发展,并为关键应用提供了强大的基础。
Mar, 2024
本文提出了一种名为 PixelDefend 的新方法,可以通过将恶意扰动图像移回训练数据中所看到的分布来净化这些图片,然后在经过未经修改的分类器时进行分类,从而大大提高了各种最先进攻击方法的弹性。
Oct, 2017
本文提出了一种结合了多数投票机制的实时检测器 VisionGuard*,可用于检测时间序列图像数据中的对抗性物理攻击,通过实验证明其优于设计用于异常数据和数字攻击图像的检测器。
Apr, 2023
本文全面调查了当前关注的物理对抗攻击趋势,详细解析物理对抗攻击的概念、特征和要求,探索其在不同应用中的目标任务下,包括分类、检测、人脸识别、语义分割和深度估计等,各种物理对抗攻击方法,并评估其有效性、隐蔽性和鲁棒性,讨论了当前挑战和未来研究方向,强调了增强防御机制、探索新的攻击策略、在不同应用领域评估攻击,以及建立物理对抗攻击的标准基准和评估准则的必要性。通过这个全面的调查,旨在为计算机视觉领域的研究人员、实践者和政策制定者提供有价值的资源,帮助他们全面了解物理对抗攻击,并促进鲁棒和安全的基于深度神经网络的系统的发展。
Aug, 2023