探究基于权重扰动的深层神经网络应用于虹膜攻击检测
本文提出了一种新的扰动流形及其关联的影响度量方法,通过该方法可以量化各种扰动对 DNN 分类器的影响,主要应用于四个模型构建任务:检测异常值、分析模型体系结构的敏感性、比较训练和测试集之间的网络敏感性以及定位易受攻击的区域。实验证明,该方法在 CIFAR10 和 MNIST 数据集上的 ResNet50 和 DenseNet121 模型中具有较好的性能。
Jan, 2019
深度神经网络在计算机视觉任务中表现出色,但对于关键应用,需要研究它们的行为和决策原因。本文提出了调查 DNN 层次重要性的方法,旨在估算其对准确性的敏感性,并提出了用于评估该方法的新数据集,为提高 DNN 效率和硬件故障鲁棒性(如位交换)提供了参考。
Aug, 2023
本文对基于深度学习的人脸识别技术进行了研究,提出了一种通过定向权重扰动的方法进行 CNN 后门攻击的一般性方法,通过案例研究证明了攻击者能够显著提高他们提供的输入被 CNN 虚假接受的几率,并同时保留合法注册类别的误差率。
Dec, 2018
本文提出了一种快速特征生成技术,可以对深度神经网络进行快速的安全检测,尤其是可以在几秒钟内检测出所谓的后门 (backdoors),并且无需大量计算资源和训练数据。
Jul, 2020
本文以 Fast Gradient Sign Method 为基础,对面部图像数据集进行扰动,测试不同黑盒攻击算法的鲁棒性,并重点研究修改单个最佳像素或所有像素的攻击方法。研究结果表明,所有像素攻击方法能使分类器置信度平均下降至 84%,且 81.6%的误分类率,但这些图像始终可以被人类识别。该研究可为防御性对抗攻击、自适应噪声降低技术等方面的 DNNs 训练和研究提供宝贵的参考。
Jan, 2020
通过对深度学习模型的不同层进行敌对性扰动攻击验证,研究表明浅层的通道组合对模型的干扰较大,在不同攻击类型中具有共享的易受攻击通道组合,而不同攻击对隐藏表示的影响存在差异且与卷积核大小呈正相关,以此为基础为未来应用开发高效的应对性防御机制奠定技术基础。
May, 2024
该研究讨论在深度神经网络(DNN)图像分类器范围内的黑盒传递目标对抗攻击威胁模型,提出的方法通过扰动特征层级上的表示来模仿其他类别,使用灵活的攻击框架显示出 ImageNet DNNs 之间的最新目标传输性能,并说明其优越性,相比于其他黑盒传输方法,成功率提高了 10 倍,该方法胜过现有的攻击策略,并在有限的黑盒模型查询情况下同时展示了该方法的扩展性。
Apr, 2020
本文探讨了模型参数的脆弱性对于模型鲁棒性和泛化性的重要性,并提出了通过参数损坏来衡量神经网络参数鲁棒性的指标,并给出了一种梯度下降的估算方法,以提高训练效率。我们的研究得到理论和实证的支持,发现了深度神经网络的脆弱性,并提出了一种敌对损坏抗性训练的方法,可以提高模型的鲁棒性和预测准确率。
Jun, 2020
深度神经网络可用于乳腺癌筛查,但在应用时需要考虑输入扰动的鲁棒性,本文探究了针对自然图像的文献和针对乳腺 X 线摄影术图像的差异,通过测量受四种常见扰动影响的乳腺 X 线摄影术图像分类器的灵敏度,得出结论认为已有文献可供参考;本文同时提出了低通滤波的问题,这可能会影响乳腺癌的预测,因此,对于乳腺 X 线摄影术图像分类器来说,去除低通滤波对于诊断有利。
Mar, 2020