利用去噪扩散概率模型检测面部混合攻击
本篇论文讨论了利用真实的人脸图像数据库训练和测试差分变形攻击检测算法的可行性。在进行多个不同后处理之后,使用不同的工具创建了人脸融合图像。通过实验表明,基于深度学习的差分变形攻击检测算法在各种后处理情形下可以实现非常高的检测性能和鲁棒性。
Jan, 2020
该研究论文针对模拟攻击问题,提出了 ACIdA 模块化差分 MAD 系统,实现了较好的性能和成果,超过了现有文献中的竞争对手,并在传统差分 MAD 基准测试中保持良好的性能。
Apr, 2024
通过像素级别的监督方法,我们训练一个分类器来识别脸部变形攻击,我们的解决方案相比于现有算法更加准确,而且在检测重数读攻击时表现良好;另外,我们还创建了一个新的数据集,即 LMA-DRD 数据集,可用于研究目的。
Aug, 2021
本文提出了一种多光谱框架用于差异化仿真攻击检测,该方法通过在电子护照中捕获的基准图像和在可信设备中捕获的面部图像来检测电子护照中呈现的人脸图像是否被修改,并在多个会话中使用可见光和多光谱相机对 143 个独特数据主体进行了广泛实验,结果表明该多光谱框架的性能优于可见光图像检测。
Apr, 2023
本研究介绍了首个基于合成数据的变形攻击检测开发数据集 (SMDD) ,证明该数据集成功地用于训练三种变形攻击检测骨干网络,从而实现了高性能的变形攻击检测,即使是完全未知的攻击类型。通过详细的法律分析,我们表明在使用和分享真实生物特征数据的挑战方面,我们提议的 SMDD 数据集至关重要。该数据集包含 30,000 个攻击样本和 50,000 个真实样本,可供研究目的公开使用。
Mar, 2022
本文针对面部融合这一复杂的攻击技术,提出了一种基于融合分类方法的无参考情况下的差异性面部融合检测扩展方法,引入了公开的面部融合检测基准,并利用特定的数据挖掘技术来提升检测方法的性能,实验结果证明了该方法在检测融合攻击方面的有效性。
Sep, 2023
提出了一种基于迭代采样过程的扩散变形攻击模型,通过使用基于身份的启发式函数引导的贪婪策略,比较在开源的 SYN-MAD 2022 竞赛数据集上与其他十种最先进的变形算法相比,该算法以异常高的精确度欺骗了所有被测试的人脸识别系统,MMPMR 值达到 100% 以上。
Apr, 2024
该研究论文提出了一种统一的框架 Adv-Diffusion,可以在潜在空间而不是原始像素空间中生成不可感知的对抗性身份扰动,利用潜在扩散模型的强大修补能力生成逼真的对抗性图像。通过在周围环境中生成语义扰动的身份敏感条件扩散生成模型,设计了自适应强度的对抗性扰动算法,既能确保攻击的可传递性又能保持隐秘性。在公开的 FFHQ 和 CelebA-HQ 数据集上进行了广泛的定性和定量实验,证明该方法在没有额外的生成模型训练过程的情况下取得了卓越的性能。源代码可在此链接中获取。
Dec, 2023