Yanjie Li, Yiquan Li, Xuelong Dai, Songtao Guo, Bin Xiao
TL;DR通过利用光学噪声攻击 3D 人脸识别系统,该研究设计了端到端的攻击算法,成功地攻击了基于点云和深度图的 3D 人脸识别算法,变形不可见且需要比先前的物理攻击更少的扰动。
Abstract
2D face recognition has been proven insecure for physical adversarial
attacks. However, few studies have investigated the possibility of attacking
real-world 3d face recognition systems. 3D-printed attacks recently proposed
cannot generate adversarial points in the air. In this paper,
通过自动生成对抗性图像的方式,本研究展示了面部认证系统在实际场景中对对抗性图像的脆弱性,并提出 AdvGen 作为一种自动化生成对抗网络来模拟打印和重放攻击,生成可以欺骗最新型 PAD 的对抗性图像,其攻击成功率高达 82.01%。本研究在四个数据集和十个最新型 PAD 上对 AdvGen 进行了广泛测试,并在真实的物理环境中进行了实验证明了攻击的有效性。
本研究提出了一种基于内部图像分析的检测方法来区分真实人脸和 3D 面具,该方法将面部图像进行内部图像分解处理以计算其反射图像,然后从三个正交平面中提取强度分布直方图来表示反射图像之间的强度差异,并使用一维卷积网络进一步捕捉描述不同材料或表面对光照变化反应不同的信息。实验结果表明,本方法在检测性能上优于其他现有方法,并在 3DMAD 数据库上显示出其有效性。