- 卷积神经网络架构在人脸混合造假展示攻击中的通用性
开发鲁棒性的机器学习系统是防止犯罪分子使用假身份证件越过边境的必要手段,本研究则调查了卷积神经网络架构对变形攻击的泛化能力,结果发现 InceptionResNet-v2 在对未知数据的泛化效果上优于其他四个 CNN 模型。
- 3D 人脸识别系统对形变攻击的脆弱性
该研究论文的主要内容是研究面部识别系统中的 3D 面部形态学攻击,并描述了生成 3D 面部形态学和检测攻击的方法。
- 差异面部融合检测的融合分类
本文针对面部融合这一复杂的攻击技术,提出了一种基于融合分类方法的无参考情况下的差异性面部融合检测扩展方法,引入了公开的面部融合检测基准,并利用特定的数据挖掘技术来提升检测方法的性能,实验结果证明了该方法在检测融合攻击方面的有效性。
- 基于图像背景的单一深度学习人脸变形攻击检测的影响
本研究调查了输入图像的对齐设置对深度学习人脸合成检测性能的影响,分析了人脸轮廓和图像背景之间的相互关系,并提出了人脸合成检测的最佳对齐条件。
- SDeMorph:单一变形拆除脸部变形的提升
提出了一种无参考的去形变方法 SDeMorph,利用 DDPM 和分支 UNet,实现了高质量的去形变,能够恢复出真实身份。
- AdvFAS: 对抗性示例下的鲁棒人脸防伪框架
确保人脸识别系统对抗攻击的可靠性需要部署人脸反欺骗技术。尽管在这个领域取得了相当大的进展,但即使是最先进的方法也难以防御对抗性样本。为了克服这些挑战,我们深入探讨对抗检测与人脸反欺骗之间的关系,并基于此提出了一种强大的人脸反欺骗框架,即 A - 利用多焦点空间注意力进行口罩人脸识别的定位
本文提出的口罩人脸识别方法 (CAL and MFSA) 通过训练补充空间注意力集中于口罩区域和背景区域,并提取掩蔽不变特征的方式,在不影响传统人脸识别性能的前提下,提高了口罩人脸识别的准确性。
- 应对人脸验证边缘案例:深入分析与人机融合方法
通过结合人类操作和机器学习,提升了面部识别系统在各种基准数据集上的表现,研究探讨了边缘情况和各种状态下的挑战。
- 多个人脸识别系统组件的同时对抗攻击
探讨对人脸识别系统安全性的对抗性威胁及其攻击风险,以及一种新的攻击向量,通过对攻击向量的知识来增强部件培训的抗性,并在目标系统上通过预实验分析证明了其有效性。
- 蒙面人戴口罩
本研究探究了配备口罩检测器的现代人脸识别系统在大规模戴口罩时的潜在漏洞,并提出了一种新的任务 —— 生成逼真的对抗性口罩面孔以欺骗两个系统,经过实验后发现对近期的深度学习人脸识别系统来说具有破坏性。
- ECCVFRT-PAD:基于人脸相关任务驱动的有效呈现攻击检测
该论文介绍了一种利用人脸相关任务先验知识来提高 Presentation Attack Detection (PAD) 的泛化能力的方法,该方法包括引入人脸相关任务的特征、设计跨模态适配器以重新映射特征并使用卷积神经网络 (CNN) -ba - 3D 高保真面罩攻击检测挑战赛
本文提出了一种大规模的、高保真度面具数据集 HiFiMask,设计了协议 3 来评估算法在开放场景下的识别和推广能力,并组织了一场 3D 高保真度面具面部攻击检测挑战赛,最终提供了排名算法的概述分析以及面具攻击检测的相关研究思路。
- 利用不可识别人脸来提高人脸识别能力
本文介绍了一个基于深度神经网络实现的面部图像嵌入方法,并提出了一种计算人脸图像可识别性的度量方法,将其应用到面部识别系统设计中,其中计算出的 “无法识别身份” 的距离被用于示例验证。在 IJB-C 身份验证基准测试中,本文方法将单图面部识别 - CVPRFACESEC: 面向人脸识别系统的细粒度鲁棒性评估框架
提出 FACESEC 框架,针对人脸识别系统进行精细化鲁棒性评估,并通过评估五个人脸识别系统的表现,发现神经网络结构的准确性比训练数据的知识对于黑盒攻击更为重要;开放式面部识别系统比封闭式系统更易受到不同类型攻击;而对于其他威胁模型变化的攻 - 通过操纵潜空间实现差分隐私成像
为了解决社交媒体、照片设备的普及,以及人脸识别系统的不断增加所带来的图像隐私问题,我们提出了一种基于未经条件训练的生成模型的潜在空间的图像混淆新方法,该方法能够合成高分辨率、逼真的面部图像,并以满足局部差分隐私的形式进行操作。据我们所知,这 - 基于人脸关键点和生成对抗网络的面部变形攻击漏洞分析
本研究提供了一个包含 4 种不同类型的变形攻击的新数据集,并通过基于 OpenCV、FaceMorpher、WebMorph 和生成对抗网络(StyleGAN)的变形攻击实验,评估了现有人脸识别系统的风险程度,其中发现 VGG-Face 虽 - 人脸识别预测不确定性的引导估计
本研究旨在提出一种基于 PCNet 的人脸图像质量评估方法,通过自动生成图像质量训练数据,实现生成可靠的人脸图像的置信度得分,进而提高任何人脸验证模型的识别准确度,以达到三个应用目的:筛选高质量人脸进行自动注册或显示;通过拒绝低质量人脸提高 - GAN 生成的变形和基于标志物的变形对人脸识别系统的威胁是否相当?-- 脆弱性与检测
本文提出使用新的生成对抗网络(GAN)- StyleGAN 生成实际高质量、高清晰度人脸混合图像的新框架,并使用 2500 个自己创建的变形脸部图像进行了实验,对基于商用产品和深度学习的人脸识别系统对信任度的威胁进行分析,并在以往的混合攻击 - MMAmora: 黑盒对抗变形攻击
研究了一种名为 Adversarial Morphing Attack 的针对面部识别系统的攻击方法,该攻击方法在语义层面上对像素进行扭曲,通过学习光流场解决黑盒攻击的问题,可以有效地进行人脸表情的篡改和攻击。
- 对抗性人脸合成
该论文提出 AdvFaces,一种基于生成对抗网络 (GAN) 的自动化方法,用最小的扰动生成看似合法但实际上能够欺骗最新人脸识别系统的假冒人脸或模糊真正主题的攻击性人脸图像。