虹膜表征攻击:评估采用钒二氧化物薄膜与人工眼睛的影响
本文探讨如何用红外线对面部识别系统进行攻击,从而绕过或误导系统。作者通过算法设计出对抗性样本,该攻击方式在降低被发现的同时能够高度模仿目标受害者,通过面部识别系统。攻击者可以通过此攻击逃脱监视摄像头和骗过面部认证系统,而这样的攻击方式对于人眼是看不见的。该研究揭示了红外对抗性样本对面部识别安全的潜在威胁。
Mar, 2018
2023 年的 ''LivDet'' 系列虹膜展示攻击检测(PAD)竞赛的结果。新的元素包括生成对抗网络(GAN)产生的虹膜图像作为展示攻击工具的一类,以及评估人类检测展示攻击工具的准确性作为参考基准。结果分析了不同类型的展示攻击工具的准确性,并与人类准确性进行了比较。总体而言,Fraunhofer IGD 算法表现出最佳的加权准确性结果(平均分类错误率为 37.31%),而北京土木工程与建筑大学的算法在每个展示攻击工具给予相等权重时获胜(平均分类率为 22.15%)。这些结果表明虹膜 PAD 仍然是一个具有挑战性的问题。
Oct, 2023
使用 EvilEye 攻击的动态物理对抗样本生成方法在各种环境光照条件下更加稳健,并能绕过最新的物理对抗检测框架,为攻击者提供了适应多种物体的对抗样本的动态能力。最后,我们探讨了对抗 EvilEye 攻击的缓解策略。
Jul, 2023
视频眼动仪记录虹膜生物特征,用于用户身份认证。然而,生物特征认证容易受到物理或数字篡改攻击造成的虚假身份冒用。目前的标准通过活体检测来识别眼动仪上的物理欺骗攻击。然而,这种防御无法检测到当真实眼部图像输入被数字篡改以交换另一个人的虹膜模式时的假冒攻击。我们提出了一种名为 IrisSwap 的新型针对基于眼动的活体检测系统的攻击方法。IrisSwap 允许攻击者分割并数字化地交换受害者的虹膜模式以欺骗虹膜认证。离线和在线攻击数据以高达 58% 的成功率欺骗目前先进的防御模型,这促使我们研发更先进的眼动仪身份认证方法的需求。
Apr, 2024
本研究旨在使用深度学习技术,通过 DĆGAN 技术生成逼真的合成图像,以识别并防止生物特征认证中的攻击,我们在三种不同的生物特征数据集上使用我们的深度 CNN 模型,测试准确率最高达 97%。
Jun, 2022
面部和虹膜的演示攻击检测的三种软件方法比较:使用 Inception-v3 的深度卷积神经网络(CNN),基于改进的 Spoofnet 架构的浅层 CNN,以及使用局部二值模式(LBP)的基于纹理的方法。
Nov, 2023
本文研究了采用对抗攻击中的晕影来嵌入有意误导信息,制造自然的对抗样本,并通过物理模型下的径向各向同性和径向异向性嵌入有效的晕影区域,达到更高迁移性和更好的图像质量,攻击 4 种不同的卷积神经网络。
May, 2021
本文介绍了使用不同的图像模态解决面部呈现攻击检测问题,特别地,考虑使用短波红外(SWIR)成像。在新的公共数据库上执行的实验表明,所提出的方法以极低的认证误差几乎完美地检测所有的冒名顶替攻击,而特述攻击则更难检测。
Jul, 2020