人脸识别算法对抗攻击和偏见的鲁棒性
这篇研究论文旨在通过详细的基准测试来检查商业和学术模型的人脸检测问题,特别关注这些系统对于不同身份的人的鲁棒性和公平性的问题,结果发现西方男性、年龄偏大、皮肤较暗和光照条件较差的人更容易受到错误的影响。
Nov, 2022
本文针对深度神经网络在人脸识别中的鲁棒性进行了研究,分析了深度学习算法的脆弱性,建立了分类器来检测对深度网络中隐藏层的攻击,并提出了多种方法来缓解攻击影响并提高神经网络的鲁棒性。
Feb, 2018
本文旨在评估最先进的人脸识别模型在基于决策的黑盒攻击环境下的鲁棒性能,并提出一种新的进化攻击算法以减少搜索空间维度,实验结果表明该方法能够在较少的查询次数内诱导输入的最小扰动,并成功地用于攻击一个真实的人脸识别系统。
Apr, 2019
面部反欺骗、数字攻击、漏洞、威胁与鲁棒性是本研究的关键词。通过一系列实验,本文揭示了当前面部反欺骗检测技术的限制和其对新型数字攻击场景的失败。为了抵御这些新型攻击的漏洞,本文提出从模型准确性、鲁棒性到流程鲁棒性和平台鲁棒性的关键设计原则。尤其是,我们建议使用主动传感器来实现预防性面部反欺骗系统,以显著降低未知攻击向量的风险并提高用户体验。
Jun, 2024
本文关注人脸检测系统的输出鲁棒性,使用 Amazon Rekognition、Microsoft Azure 和 Google Cloud Platform 三种系统,通过标准和最近发布的学术数据集量化分析它们的鲁棒性,发现较老、男性化、深肤色或光线较暗的人的照片更容易产生错误。
Aug, 2021
本文探讨了人脸识别算法中面部图像识别误差受种族差异影响的可能基础因素,包括数据驱动和场景建模,并提供了对评估算法种族偏见的方法论考虑。通过对四种面部识别算法表现的数据分析,本文得出种族偏见的存在需要在各不同应用场景下进行测量,同时提供了一个检查清单来测量面部识别算法中的种族偏见。
Dec, 2019
本文提出了用于面部分析的偏差检测 / 估计和减轻算法,并对已提出的偏差检测算法进行了系统综述。其主要贡献是对现有的偏差缓解算法进行了分类和广泛的概述。我们还讨论了偏差面部分析领域中的开放挑战。
Dec, 2021
本文使用基于深度学习的对抗光投影攻击系统在人脸识别领域进行了实时物理攻击的实验,证实了人脸识别系统在白盒和黑盒攻击设置下均易受到对抗攻击的威胁。
Mar, 2020
近年来,对神经网络的稳健性评估引起了极大关注,深度学习的稳健性问题特别突出,研究人员致力于在图像识别任务中评估稳健性,在此综述中,我们对神经网络评估中敌对稳健性和扰动稳健性进行了详细研究,分析当前研究和标准,提供了图像识别中稳健性评估的广泛概述,分析了概念、度量标准和评估方法,研究了用于度量图像扰动程度的扰动度量和范围表示,以及特定于分类模型稳健性条件的稳健度量,还讨论了现有方法的优势和局限性,并提供了一些未来研究的潜在方向。
Apr, 2024
分析了面部属性对人脸识别系统的影响,探讨了人口统计学以外的因素如饰品、发型、脸型等在身份验证性能方面的影响,提出了进一步增强人脸识别系统鲁棒性、可解释性和公平性的需求。
Mar, 2021