我们提出了一种防御机制,利用聚类技术 DBSCAN 来分离异常图像片段,并通过三阶段流程对敌对噪声进行定位和减轻,进而中和其效果。该防御机制在多个模型和数据集上验证,证明其在对抗性贴片攻击中的有效性,显著提高了准确性。
Feb, 2024
提出了一种可通过物理方式应用于图像中的明显但具有对抗性的矩形贴片,并利用对抗训练的方式来增强深度神经网络对对抗贴片的鲁棒性,这种训练不会降低网络的分类准确率。
May, 2020
我们分析了攻击技术并提出了一种强大的防御方法,通过利用对象的形状、纹理和位置,成功降低了 20% 以上的模型置信度。利用修复预处理技术,有效地恢复了原始的置信水平,展示了强大防御在减轻这些威胁中的重要性。我们的修复防御方法在仿真像素化的基于补丁的物理对抗攻击中显著提高了模型的韧性,实现了高精度和可靠的定位,尽管受到了对抗性攻击。这项工作推动了对抗挑战中对象检测和分类网络的韧性和可靠性的发展,并为关键应用提供了强大的基础。
Mar, 2024
本文介绍了对抗补丁攻击的认证和经验性防御措施,其中首次提出了认证防御措施,并实验了不同补丁形状的测试,获得了出人意料的良好的鲁棒性转移。
Mar, 2020
通过将输入图像分成多个块,对每个块进行去噪并重构图像来提高深度神经网络对抗攻击的鲁棒性,在灰盒测试方案下,该方法比现有技术提高了 19.7% 的准确度,并且在黑盒测试方案下具有可比拟的表现,在白盒测试方案下取得 34.4% 的准确率,这是最近研究中没有出现的。
Feb, 2018
提出在高分辨率图像上实现高可证明鲁棒性的认证防御方法,减少敌对区域的搜索开销和过滤预测噪声,从而通过利用重要神经元的本地化性质增强了认证准确性。
Oct, 2021
本文介绍了一种针对具有高度内类变异的待攻击目标,即人体,生成对抗贴片的方法,并且通过实验表明,我们的系统能显著降低人体检测器的准确性,同时还在实际场景中能够进行攻击。
Apr, 2019
本篇研究论文主要探讨了如何有效防御基于图像分类的深度神经网络攻击。通过研究两种最常见的防御方法,我们发现这些方法对于三种最高危物理攻击的防御效果较差。因此我们提出了一种新的抽象对抗模型,矩形遮挡攻击,并且开发了两种计算结果的对抗样本的方法。最后,我们通过新的模型进行对抗训练,证明了这一方法是一种高效的通用防御策略。
Sep, 2019
本文提出了一种生成难以察觉的对抗性贴片的方法,通过利用多尺度生成器和辨别器粗粒度到细粒度地生成对抗贴片,并在对抗训练中使其保持一致性,从而在白盒设置中展示强大的攻击能力和在黑盒设置中的卓越可转移性。与其他对抗性贴片相比,我们的对抗性贴片具有最小的被检测风险并可以逃避人类观察,这得到了显著实验结果的支持。
Jun, 2021
本文提出了一种对抗性噪声网络攻击方法,有效地误导了深度神经网络,同时也改变了网络决策的解释算法,并引入一种控制条件测试神经网络解释算法准确性的方法,以促进更健壮的神经网络解释工具发展。
Dec, 2018