本文提出了一个有效的图像增强方法,通过深度图像恢复网络来将离散的对抗噪声样本转换回自然图像流形,从而提高对抗性的鲁棒性,同时提高图像质量和保持干净图像上的性能表现。
Jan, 2019
通过稳健优化方法探究神经网络对抗攻击的鲁棒性,设计出对抗攻击和训练模型的可靠方法,提出对于一阶对手的安全保证,并得到针对广泛对抗攻击的高鲁棒性网络模型。
Jun, 2017
对抗性图像的存在严重影响了图像识别任务和深度学习的实际应用,本文构造了一种干扰神经网络,通过使用额外的背景图像和相应的标签以及预先训练的 ResNet-152,在较小的计算资源下实现了比 PGD 攻击下现有最先进结果更好的防御效果,为有效抵御对抗性攻击的学术研究和实际应用提供了新的思路。
Sep, 2023
本文探讨了针对文档和自然数据的对抗攻击方法,并通过对 ResNet50 和 EfficientNetB0 模型架构的对抗训练、JPEG input 压缩和灰度输入变换等方法的研究, 对文件图像分类任务中这些攻击的影响进行了评估。
Apr, 2023
通过添加一个用于协作训练的对抗样本检测网络和设计一种新的数据采样策略,我们建议了一个简单的架构来构建具有一定鲁棒性的模型,该模型能够适应许多不同的对抗攻击,并针对 Cifar10 dataset 的实验表明这种设计对模型的鲁棒性具有积极影响。
Apr, 2022
本文提出了一种名为 “deep defense” 的训练方法来解决深度神经网络易受到对抗样本攻击的问题,通过将对抗扰动的正则化器与分类目标相结合,得到的模型能够直接且准确地学习抵御潜在的攻击,实验证明该方法在不同数据集上对比对抗 / Parseval 正则化方法有更好的效果。
Feb, 2018
本研究旨在建立一个全面、严谨、连贯的标准来评估对抗性鲁棒性,通过两个鲁棒性曲线作为公正的评估标准来进行大规模实验,全面掌握攻击与防御方法的表现并得出重要结论和未来研究的启示。
Dec, 2019
通过在预先训练好的外部模型上找到敌对样本,我们将有害的攻击过程转化为有用的防御机制,并且我们的防御方法比先前的方法更为强大和经济。
Nov, 2019
本文提出了一种新的对抗生成网络(adversarial generator network)求解约束优化问题来产生对抗性样本的策略,该方法经过简单训练后线性扩展的能力很强,可以攻击还未曾见过的新图片,使用此技术针对 Faster R-CNN 人脸检测模型可将原本检测人脸的成功率从 100% 降低到仅 0.5%。
May, 2018
通过元学习方法构建的双网络框架,旨在解决深度神经网络在遇到少量样本的新对抗攻击时检测精确度低的问题。在 CIFAR-10,MNIST 和 Fashion-MNIST 三个数据集上实验表明,该方法相比于传统的对抗攻击检测方法具有更高的有效性。
Aug, 2019