使用锐视图像训练提高对抗攻击的鲁棒性
本文研究对抗机器学习中的 $RP_2$ 攻击,并提出一种名为 BlurNet 的防御方法,该方法通过低通滤波来减少噪声,并采用正则化策略将其融入网络训练过程中,进而显著提高抵御攻击的能力。
Aug, 2019
当前深度神经网络容易受到对抗样本的攻击,添加有针对性的噪音改变预测结果。本研究提出将主动视觉机制融入深度学习系统,通过从不同的注视点获取下采样视觉片段进行学习和推理,实现更大幅度的鲁棒性提升,同时可视化分析证明了从不同注视点进行推理使主动视觉方法对恶意输入更加抵抗。
Mar, 2024
本文探讨使用模糊图像的语义视觉任务中对基于卷积神经网络的模型的影响以及如何通过对预训练模型进行微调并加入模糊图像进行训练来提高模型精度,发现模型在隐藏层中学习生成模糊不变表示并且具有很强的模糊泛化能力,为开发实现在受模糊影响的实际世界图像上可靠操作的视觉系统提供有用的见解。
Nov, 2016
通过对位于图像不同区域的 CNN 进行应用,来缓解基于对抗性样本的问题,即在图像中引入几乎不可见的扰动来导致 CNN 失效。实验结果表明,CNN 具有局部线性特性,这不仅推翻了先前的假设,还证明了应用 Foveations 机制有助于降低对抗性样本的影响。
Nov, 2015
通过 OpticsBench 和 OpticsAugment 的实验证明了使用实际光学模糊效果进行数据增强可以提高深度神经网络的鲁棒性,这在计算机视觉中具有重要意义。
Aug, 2023
本文提出了一种名为 “deep defense” 的训练方法来解决深度神经网络易受到对抗样本攻击的问题,通过将对抗扰动的正则化器与分类目标相结合,得到的模型能够直接且准确地学习抵御潜在的攻击,实验证明该方法在不同数据集上对比对抗 / Parseval 正则化方法有更好的效果。
Feb, 2018
本文以 Fast Gradient Sign Method 为基础,对面部图像数据集进行扰动,测试不同黑盒攻击算法的鲁棒性,并重点研究修改单个最佳像素或所有像素的攻击方法。研究结果表明,所有像素攻击方法能使分类器置信度平均下降至 84%,且 81.6%的误分类率,但这些图像始终可以被人类识别。该研究可为防御性对抗攻击、自适应噪声降低技术等方面的 DNNs 训练和研究提供宝贵的参考。
Jan, 2020
利用目标样本的样式和内容信息以及其类边界信息创建对抗性扰动,将其应用于多任务目标并进行深度监督,提取多尺度特征知识以创建最大分离对手,随后提出最大间隔对抗训练方法,最小化源图像与其对手之间的距离,并最大化对手和目标图像之间的距离,证明与最先进的防御相比,我们提出的对抗训练方法表现出强大的鲁棒性,对自然出现的损坏和数据分布变化具有良好的泛化能力,并保留了模型在干净样本上的准确性。
Jul, 2020
通过对三种著名的深度卷积神经网络在十二种不同的图像失真下的实验对比,研究表明,与这三种人工智能算法相比,人类视觉系统在几乎所有的测试图像处理中都更加鲁棒,其误差模式渐行渐远。本文还证明了,利用失真图像直接训练的深度学习神经网络在恰当的测试条件下,表现优于人类。然而,当被分别用于测试不同类型的失真图像时,它们的泛化能力极差,无法适应噪声分布的变化,这成为深度学习视觉系统所面临的关键挑战,可用一种终身机器学习的方法进行系统化解决。
Aug, 2018
通过研究和比较多种神经网络,本文发现随着图片识别准确度的提高,对抗性攻击虽然越来越容易使模型改变分类决策,但同时攻击的特征也越来越远离与人类视觉识别相关的特征,即使人工以同样方式造成的影响。而通过神经协调器网络的训练,可以使神经网络更加接近人类视觉识别应有模式,从而提高对抗性攻击下的鲁棒性。
Jun, 2023