本研究提出了一种基于视觉显著性的方法,用于清理受对抗性攻击影响的数据。该模型利用对抗性图像的显著区域提供有针对性的对策,并在相对减少清理后图像的损失的同时,通过评估各种指标的准确性来证明它的有效性。
Mar, 2020
本文研究深度神经网络的鲁棒性问题,特别关注对抗样本的攻击。通过在线显著特征训练,得到视觉可解释性的特征,但实验结果显示,这些特征并不能提升模型对抗样本攻击的性能。
Jun, 2023
本研究使用三种方法检测机器学习分类器所遭受的对抗性扰动,其中最佳检测方法显示对抗性图像在 PCA 下的低排名主要成分上存在异常强调。
Aug, 2016
本文提出了一种基于 Saliency map 的对抗训练方法(SAT),通过使用详细的弱显著性图(如边界框和分割掩码)来改进模型的对抗鲁棒性,同时展示了如何进一步提高性能。
Jun, 2020
本文提出一种方法,在深度神经网络中增加一个小的 “检测器” 子网络,用于区分含有敌对扰动的假数据和不包含敌对扰动的真数据的二元分类任务,并证明其能够有效检测和对抗敌对扰动攻击。
Feb, 2017
通过分析 Saliency Maps 和 Gradient-weighted Class Activation Maps 的方式,研究 Adversarial algorithms 如何影响神经网络的关注点,防止了一些防御成功而留下另一些迎接攻击的漏洞。
Jun, 2021
融入人类感知智能到模型训练能增强在难度较高的生物特征任务中的泛化能力,如攻击检测和合成样本检测。本文研究了不同的显著性粒度水平,通过使用简单但有效的显著性后处理技术,在数个卷积神经网络中实现了增强的攻击检测和合成人脸检测的泛化能力。
May, 2024
该文章提出了一种直接部署到标准深度神经网络模型中的简单方法,通过引入两个经典图像处理技术,标量量化和平滑空间滤波,将图像中的扰动降低到最小,使用图像熵作为度量标准,可以有效地检测出对基于多种攻击技术的先进深度学习模型的 20,000 多个对抗样本,最终的实验结果表明,该检测方法可以取得 96.39%的高整体 F1 评分。
May, 2017
本文介绍了一种快速的显著性检测方法,可以应用于任何可微分的图像分类器,其通过训练掩膜模型来操纵分类器的分数,从而检测图像的显著部分,并在 CIFAR-10 和 ImageNet 数据集上进行了测试,表明其结果优于其他弱监督方法。
本文介绍了一种使用显著图来限制神经网络对某些区域的不变性从而提高分类准确性的新方法。
May, 2022