针对CNN在面对对抗性攻击时容易被操控的问题,提出了一种基于像素偏转和小波去噪的算法,该算法通过改变图像像素值使其符合自然图像统计规律从而增强模型的鲁棒性,且不需要额外的重新训练或修改CNN。
Jan, 2018
本研究介绍了一种针对图像贴片对抗攻击的可证明防御方法,并通过对以往方法的比较,证明了该方法在 CIFAR-10 和 ImageNet上能有效提高防御水平,是当前领先的防御方法之一。
Feb, 2020
本文介绍了对抗补丁攻击的认证和经验性防御措施,其中首次提出了认证防御措施,并实验了不同补丁形状的测试,获得了出人意料的良好的鲁棒性转移。
Mar, 2020
本文介绍了一种名为PatchGuard的通用防御框架,采用具有小感受野的CNNs对受攻击的特征数量进行限制,设计出抵御本地化对抗性补丁的安全特征聚合机制,使用稳健掩蔽防御方法有效检测和遮盖受损特征,并且在ImageNet、ImageNette和CIFAR-10数据集上达到了最先进的可证明鲁棒准确性和干净准确性的性能表现。
May, 2020
本文介绍了将 PatchGuard 扩展到 PatchGuard++ 的方法以提高模型的可证明的鲁棒性和准确性,在局部受到对手物理攻击时也可以保证模型的安全。
Apr, 2021
本文提出了一种生成难以察觉的对抗性贴片的方法,通过利用多尺度生成器和辨别器粗粒度到细粒度地生成对抗贴片,并在对抗训练中使其保持一致性,从而在白盒设置中展示强大的攻击能力和在黑盒设置中的卓越可转移性。与其他对抗性贴片相比,我们的对抗性贴片具有最小的被检测风险并可以逃避人类观察,这得到了显著实验结果的支持。
Jun, 2021
PatchCleanser是一种用于抵御基于物理世界中对受害对象打印和附加补丁的对抗性攻击的、在图片上执行的像素遮蔽的、适用于各种先进的图片分类器以实现高精度的、具有认证稳健性的防御方法。此方法可以证明在某些图像上永远预测正确的类别标签,同时较之前的工作显着提高了认证稳健性。
Aug, 2021
我们提出了一种防御机制,利用聚类技术DBSCAN来分离异常图像片段,并通过三阶段流程对敌对噪声进行定位和减轻,进而中和其效果。该防御机制在多个模型和数据集上验证,证明其在对抗性贴片攻击中的有效性,显著提高了准确性。
Feb, 2024
提出了一种名为PAD的新颖的对抗贴纸定位和去除方法,该方法不需要先前知识或额外训练,提供了针对各种对抗贴纸的无关补丁防御,与任何预训练的物体检测器兼容。
Apr, 2024
该研究解决了在对抗性机器学习中针对补丁攻击的防御问题,提出了一种利用扩散模型进行对抗性补丁去污的新框架DiffPAD。通过超分辨率恢复和有效定位对抗性补丁,该框架显著提高了对抗性鲁棒性,并在恢复自然图像方面表现优异,显示出良好的应用潜力。
Oct, 2024