面部属性:准确性和对抗鲁棒性
通过无需预训练或数据集增强的深度卷积神经网络,本研究提出了一种简单且有效的自动面部特征提取解决方案,并在 CelebA 数据集上获得了最新的面部特征分类结果。研究者还通过引入营造自然对抗样本的概念,证明了对于某些特征,深度卷积神经网络对于对抗性输入是鲁棒的,而对于其他特征则不是。
May, 2016
本文以 Fast Gradient Sign Method 为基础,对面部图像数据集进行扰动,测试不同黑盒攻击算法的鲁棒性,并重点研究修改单个最佳像素或所有像素的攻击方法。研究结果表明,所有像素攻击方法能使分类器置信度平均下降至 84%,且 81.6%的误分类率,但这些图像始终可以被人类识别。该研究可为防御性对抗攻击、自适应噪声降低技术等方面的 DNNs 训练和研究提供宝贵的参考。
Jan, 2020
该论文提出基于解释性的对抗样本检测技术,通过对神经元的双向对应推断来对抗样本进行检测,实验表明该方法在检测 7 种不同类型的攻击时能够达到 94% 的准确率, 误判率为 9.91%。
Oct, 2018
本文针对深度神经网络在人脸识别中的鲁棒性进行了研究,分析了深度学习算法的脆弱性,建立了分类器来检测对深度网络中隐藏层的攻击,并提出了多种方法来缓解攻击影响并提高神经网络的鲁棒性。
Feb, 2018
该论文提出 AdvFaces,一种基于生成对抗网络 (GAN) 的自动化方法,用最小的扰动生成看似合法但实际上能够欺骗最新人脸识别系统的假冒人脸或模糊真正主题的攻击性人脸图像。
Aug, 2019
利用图像翻译技术生成无限制的对抗样本,欺骗目标脸部识别系统并通过认证防御,实现了攻击成功率约为 90% 和 80% 的结果,同时保持个体的可识别性和感知逼真度。
May, 2019
通过研究和比较多种神经网络,本文发现随着图片识别准确度的提高,对抗性攻击虽然越来越容易使模型改变分类决策,但同时攻击的特征也越来越远离与人类视觉识别相关的特征,即使人工以同样方式造成的影响。而通过神经协调器网络的训练,可以使神经网络更加接近人类视觉识别应有模式,从而提高对抗性攻击下的鲁棒性。
Jun, 2023
本文针对深度卷积神经网络在人脸识别中容易受到可转移性对抗攻击的问题进行了研究,提出了基于 DFANet 的特征级对抗样本生成方法,通过控制 dropout 提高替代模型的多样性并获得集成的效果,该方法在多种模型、训练数据库和网络架构下的实验表明可以显著提高现有攻击方法的可转移性,最终应用于 LFW 数据库成功生成了新的对抗人脸对并攻击了四个商业 API,本文数据集可用于深度人脸识别的鲁棒性和防御研究。
Apr, 2020
本文提出了一种基于对抗训练的方法,用于使深度神经网络具有对各种自然产生的扰动的鲁棒性,解决了当前小像素级扰动方法的不足,关键在于最大化分类器对属性空间的曝光度。
Dec, 2020
本研究旨在建立一个全面、严谨、连贯的标准来评估对抗性鲁棒性,通过两个鲁棒性曲线作为公正的评估标准来进行大规模实验,全面掌握攻击与防御方法的表现并得出重要结论和未来研究的启示。
Dec, 2019