面部识别系统中的对抗样本生成方案
该论文提出 AdvFaces,一种基于生成对抗网络 (GAN) 的自动化方法,用最小的扰动生成看似合法但实际上能够欺骗最新人脸识别系统的假冒人脸或模糊真正主题的攻击性人脸图像。
Aug, 2019
利用图像翻译技术生成无限制的对抗样本,欺骗目标脸部识别系统并通过认证防御,实现了攻击成功率约为 90% 和 80% 的结果,同时保持个体的可识别性和感知逼真度。
May, 2019
本文评估了使用两种广为人知的敌对生成方法 (BIM and ILLC) 来去识别个人图像的效果,并发现使用几乎不可察觉的敌对扰动来达到高的保护成功率 (抑制识别率) 并不容易。最后,我们发现敌对样本的可转移性受其生成网络的训练参数的影响非常大。
Feb, 2023
本文使用基于深度学习的对抗光投影攻击系统在人脸识别领域进行了实时物理攻击的实验,证实了人脸识别系统在白盒和黑盒攻击设置下均易受到对抗攻击的威胁。
Mar, 2020
本文旨在评估最先进的人脸识别模型在基于决策的黑盒攻击环境下的鲁棒性能,并提出一种新的进化攻击算法以减少搜索空间维度,实验结果表明该方法能够在较少的查询次数内诱导输入的最小扰动,并成功地用于攻击一个真实的人脸识别系统。
Apr, 2019
本研究以黑盒方式对当今最先进的 DeepFake 检测方法进行批判性漏洞研究,旨在提高其鲁棒性,包括对抗攻击和使用通用对抗样本进行更容易的攻击。该研究还在 DeepFake 检测挑战赛的获奖入口上进行了评估,并证明了它们可以很容易地被跨模型攻击所绕过。
Nov, 2020
本研究提出了一种基于对抗特征的面部隐私保护 (AdvFace) 方法,通过在对手模型中生成对抗性的潜在噪声来破坏从对抗性特征到面部图像的映射,生成隐私保护的对抗性特征来防御面部重建攻击。实验表明,AdvFace 在维护面部识别准确性的同时,比目前最先进的面部隐私保护方法更有效地防御重建攻击。
May, 2023
本研究提出了使用差分随机图像变换的对抗攻击作为 GAN-based Deepfake 的防御方法,同时使用基于集合的方法加强了攻击的鲁棒性。
Jun, 2020
通过模拟器进行对抗测试,寻找机器学习模型的弱点并提供一种方法来发现这些弱点。该方法应用于人脸识别模型中,显示在常规的验证数据集之外,可以发现真实数据集训练的模型存在的弱点,包括对抗性合成人脸等。
Jun, 2021