评估文档图像分类的对抗鲁棒性
本研究旨在建立一个全面、严谨、连贯的标准来评估对抗性鲁棒性,通过两个鲁棒性曲线作为公正的评估标准来进行大规模实验,全面掌握攻击与防御方法的表现并得出重要结论和未来研究的启示。
Dec, 2019
本篇研究论文主要探讨了如何有效防御基于图像分类的深度神经网络攻击。通过研究两种最常见的防御方法,我们发现这些方法对于三种最高危物理攻击的防御效果较差。因此我们提出了一种新的抽象对抗模型,矩形遮挡攻击,并且开发了两种计算结果的对抗样本的方法。最后,我们通过新的模型进行对抗训练,证明了这一方法是一种高效的通用防御策略。
Sep, 2019
利用自适应 JPEG 编码器来增强深度神经网络对抗性攻击的鲁棒性,不仅可以保持图像的视觉质量,而且无需更改分类器并且压缩图像可以被非定制的 JPEG 解码器解压。
Mar, 2018
在这篇论文中,提出了一种多功能的防御方法,只需要训练一个模型就能有效抵抗各种未知的对抗性攻击,并且该模型的分类准确率平均提高至 86%,表现比之前研究中提出的其他防御方法更好。在面对 PGD 攻击和 MI-FGSM 攻击时,多功能防御模型甚至超过了基于这两种攻击训练的特定攻击模型,并且鲁棒性检查显示我们的多功能防御模型在攻击强度下表现稳定。
Mar, 2024
本文提出了一个有效的图像增强方法,通过深度图像恢复网络来将离散的对抗噪声样本转换回自然图像流形,从而提高对抗性的鲁棒性,同时提高图像质量和保持干净图像上的性能表现。
Jan, 2019
本文研究基于深度学习的超分辨率方法在对抗攻击下的鲁棒性,旨在生成高分辨率的图像,但实验证明现有方法对抗攻击的鲁棒性较差,不同方法的鲁棒性存在差异,还探讨了攻击的可转移性、有针对性攻击、通用性攻击的可行性。
Apr, 2019
本文研究了对抗训练在提高图像分类器对白盒攻击的鲁棒性中的有效性,以及在黑盒攻击下的细微差别,并定义了鲁棒性增益的度量指标来衡量其效果。研究表明,尽管对抗训练是提高白盒场景下的鲁棒性的有效方法,但对于更现实的基于决策的黑盒攻击,则可能无法提供如此良好的鲁棒性增益。此外,即使是最小的扰动白盒攻击也可以比常规攻击更快地针对对抗训练过的神经网络收敛。
Jul, 2021
研究深度神经网络在分类对抗图像时的安全风险,发现对于 Fast-Gradient-Sign 干扰强度较小的对抗图片,进行 JPG 压缩可以较大程度地逆转分类准确度下降效果,但随着干扰强度的增加,仅进行 JPG 重新压缩就不足以消除其效果。
Aug, 2016