本文研究基于深度学习的超分辨率方法在对抗攻击下的鲁棒性,旨在生成高分辨率的图像,但实验证明现有方法对抗攻击的鲁棒性较差,不同方法的鲁棒性存在差异,还探讨了攻击的可转移性、有针对性攻击、通用性攻击的可行性。
Apr, 2019
本论文提出了一种新颖的双层优化算法,该算法可以在自然图像环境下找到对抗扰动鲁棒的点,有效提高图像识别的鲁棒性。
Dec, 2021
研究了深度神经网络在实际图像超分辨率应用中受到敌对噪声攻击的问题,并提出一种结合频域掩模模块和敌对样本分类器的解决方案,以提高模型的稳定性和鲁棒性。
Jul, 2022
对抗性图像的存在严重影响了图像识别任务和深度学习的实际应用,本文构造了一种干扰神经网络,通过使用额外的背景图像和相应的标签以及预先训练的 ResNet-152,在较小的计算资源下实现了比 PGD 攻击下现有最先进结果更好的防御效果,为有效抵御对抗性攻击的学术研究和实际应用提供了新的思路。
Sep, 2023
本文提出了一种名为 “deep defense” 的训练方法来解决深度神经网络易受到对抗样本攻击的问题,通过将对抗扰动的正则化器与分类目标相结合,得到的模型能够直接且准确地学习抵御潜在的攻击,实验证明该方法在不同数据集上对比对抗 / Parseval 正则化方法有更好的效果。
Feb, 2018
通过将输入图像分成多个块,对每个块进行去噪并重构图像来提高深度神经网络对抗攻击的鲁棒性,在灰盒测试方案下,该方法比现有技术提高了 19.7% 的准确度,并且在黑盒测试方案下具有可比拟的表现,在白盒测试方案下取得 34.4% 的准确率,这是最近研究中没有出现的。
基于卷积自编码器的方法提高目标分类器对抗性攻击的鲁棒性,通过生成与输入图像相似的图像来恢复模型的准确性。
Dec, 2023
本研究提出了一种基于视觉显著性的方法,用于清理受对抗性攻击影响的数据。该模型利用对抗性图像的显著区域提供有针对性的对策,并在相对减少清理后图像的损失的同时,通过评估各种指标的准确性来证明它的有效性。
Mar, 2020
该文章提出了一种直接部署到标准深度神经网络模型中的简单方法,通过引入两个经典图像处理技术,标量量化和平滑空间滤波,将图像中的扰动降低到最小,使用图像熵作为度量标准,可以有效地检测出对基于多种攻击技术的先进深度学习模型的 20,000 多个对抗样本,最终的实验结果表明,该检测方法可以取得 96.39%的高整体 F1 评分。
May, 2017
针对深度学习图像分类模型易受恶意注入噪声的对抗攻击,本文基于深度图像先验提出了一种新颖有效的重建防御框架,并且分析和明确地将模型决策过程纳入了防御范畴,通过倒推清晰的 “干净样本”,最终构造出一幅可以被正确识别的图像,实验表明,在白盒、防御感知攻击下,该方法表现出优异的防御效果且重建图像的视觉质量较高。
Jul, 2021