增强移动设备隐私与安全:基于面部皮肤贴片的反欺骗方法
本文提出了 PatchNet 框架,通过对非扭曲的面部图像裁剪,识别由拍摄设备和陈列材料组成的细粒度面部图案,以加强对本地拍摄模式的区分学习,同时提出了新的分类和自监督相似度损失函数,并在多项测试数据上验证了该框架在面部反欺诈技术方面的优越性
Mar, 2022
本研究将人脸防欺骗重新定义为材料识别问题,并结合人的材料感知,提出了多级双边卷积网络(BCN)及多级特征细化模块(MFRM)和多头监督,以提取辨别性和鲁棒性特征,实验表明该方法在六个基准数据集上性能优异。
Jul, 2020
面部反欺骗、数字攻击、漏洞、威胁与鲁棒性是本研究的关键词。通过一系列实验,本文揭示了当前面部反欺骗检测技术的限制和其对新型数字攻击场景的失败。为了抵御这些新型攻击的漏洞,本文提出从模型准确性、鲁棒性到流程鲁棒性和平台鲁棒性的关键设计原则。尤其是,我们建议使用主动传感器来实现预防性面部反欺骗系统,以显著降低未知攻击向量的风险并提高用户体验。
Jun, 2024
确保人脸识别系统对抗攻击的可靠性需要部署人脸反欺骗技术。尽管在这个领域取得了相当大的进展,但即使是最先进的方法也难以防御对抗性样本。为了克服这些挑战,我们深入探讨对抗检测与人脸反欺骗之间的关系,并基于此提出了一种强大的人脸反欺骗框架,即 AdvFAS,利用两个耦合分数准确区分正确检测和错误检测的人脸图像。广泛的实验证明了我们的框架在各种设置下的有效性,包括不同的攻击、数据集和骨干网络,同时在清晰的示例上具有高精度。此外,我们成功地将该方法应用于检测真实世界的对抗样本。
Aug, 2023
本文提出了一种抗各种攻击类型的人脸反欺诈框架 (ATR-FAS),通过使用多个网络生成深度图并利用多个专家网络的结果进行混合,实现了对欺诈人脸的稳定检测,并且在大量实验证明了该框架显著优于现有最先进的方法。
Aug, 2023
本文提出了一种基于随机贴片的防御策略来检测人脸识别系统的物理攻击,该方法相较深度神经网络在检测攻击方面具有更好的鲁棒性。实验结果表明该方法在检测白盒攻击和自适应攻击方面的性能均优于传统防御方法,并且其易于实现,可推广至其他防御方法以提高检测性能。
Apr, 2023
同时对人脸识别系统和人脸反欺骗模型进行对抗攻击,通过样式对齐的分布偏差、实例风格对齐和梯度一致性维护模块,提高对黑盒攻击的容量,通过大量实验表明该攻击方法优于现有的对抗攻击方法。
May, 2024
提出一种新的双阶段解缠表示学习方法,可以更好地检测未见攻击类型,以防止过度拟合于预定义的欺骗攻击类型,并在多个交叉类型的面部反欺骗基准测试中表现出卓越的准确性。
Oct, 2021
我们提出了一种创新的反欺骗方法,将无监督自编码器与卷积块注意模块相结合,以解决现有方法的局限性,并具有有效推广性。我们的模型仅在真实图像上进行训练,未接触任何伪造样本,在测试阶段用于评估各种类型的展示攻击图像。我们的方案在涉及各种类型伪造样本的展示攻击中,实现了平均 BPCER 为 0.96%,APCER 为 1.6%。
Nov, 2023