对抗噪声下的鲁棒卷积神经网络
利用目标样本的样式和内容信息以及其类边界信息创建对抗性扰动,将其应用于多任务目标并进行深度监督,提取多尺度特征知识以创建最大分离对手,随后提出最大间隔对抗训练方法,最小化源图像与其对手之间的距离,并最大化对手和目标图像之间的距离,证明与最先进的防御相比,我们提出的对抗训练方法表现出强大的鲁棒性,对自然出现的损坏和数据分布变化具有良好的泛化能力,并保留了模型在干净样本上的准确性。
Jul, 2020
本文以 Fast Gradient Sign Method 为基础,对面部图像数据集进行扰动,测试不同黑盒攻击算法的鲁棒性,并重点研究修改单个最佳像素或所有像素的攻击方法。研究结果表明,所有像素攻击方法能使分类器置信度平均下降至 84%,且 81.6%的误分类率,但这些图像始终可以被人类识别。该研究可为防御性对抗攻击、自适应噪声降低技术等方面的 DNNs 训练和研究提供宝贵的参考。
Jan, 2020
该文章提出了一种直接部署到标准深度神经网络模型中的简单方法,通过引入两个经典图像处理技术,标量量化和平滑空间滤波,将图像中的扰动降低到最小,使用图像熵作为度量标准,可以有效地检测出对基于多种攻击技术的先进深度学习模型的 20,000 多个对抗样本,最终的实验结果表明,该检测方法可以取得 96.39%的高整体 F1 评分。
May, 2017
该论文提出了一种基于生成对抗网络 (GAN) 框架下的新防御机制来对抗黑盒攻击,在经验上表现良好并能与利用梯度下降的集成对抗训练和对抗训练等最先进的方法媲美。
May, 2019
通过卷积神经网络,我们提出了一种新的盲目图像降噪 CNN 架构,该架构综合了三个架构组件,包括多尺度特征提取层,l_p 规范化器以及三步训练方法,并与现有方法相比表现出具有竞争力的降噪性能。
Aug, 2017
本研究分析了最新深度学习分类器对抗性扰动的稳定性,结论表明,基于稀疏表示模型的 CNNs 对噪声更为稳健,且基于阈值深度网络方法的稳健性更佳,并通过实验在三种数据集上验证结论。
May, 2018
该研究论文研究了深度神经网络的鲁棒性问题,特别是针对对抗样本的攻击。通过探索神经网络的结构,拓扑结构,预处理和训练策略等方面来提高深度神经网络的抗干扰能力,并且通过引入平滑性惩罚来提高其稳健性。
Dec, 2014
在对具备鲁棒性的深度学习模型进行卷积滤波器分析的研究中,发现经过对抗训练的模型形成了多样性更大、稀疏性更小且更正交的卷积滤波器,且具有更高的分类精度,需要更深层网络结构来实现,此方法也被成功地应用于 CIFAR-10 数据集中。
Apr, 2022