本文讨论人脸识别准确率差异的问题,指出虽然许多数据集都平衡了各个人群中身份的数量和图像的数量,但身份和图像数量并不是影响一对一人脸匹配准确性的决定因素,因此需要一个更具有偏差意识的工具包来创建跨人群的平衡评估数据集。
Apr, 2023
该研究提出了一种新颖的无监督公平得分归一化方法,用于减少面部识别中的偏见,并导致显着的总体性能提升。实验结果表明,这种方法可以降低性别等群体的偏见,并且相比现有方法更加一致地减少了这种偏见,同时也可以增强总体性能。
Feb, 2020
通过深入分析,本文重点讨论了涉及种族、年龄和性别等因素的交叉偏见问题,提出了在当前文献中较少探索的种族、年龄和性别组合方面的性能差异。此外,本文在定量分析中引入了五个补充指标,包括不公平影响和不公平待遇指标,以克服当前主流方法中常被忽视的重要局限。研究结果表明,人脸识别系统存在普遍偏见,不仅限于种族,不同的人口统计因素导致显著不同的结果。通过揭示这些偏见及其影响,本文旨在促进进一步研究,以开发更公正、更公平的人脸识别和验证系统。
Jul, 2023
本文深入探讨了生物识别技术在算法偏倚背景下的现存问题及解决方案,尤其关注人脸识别算法的种族歧视和偏见问题,并提出了未来的研究方向。
Mar, 2020
利用生成的训练数据集中的人口属性平衡机制,提出了一种全面的评估方法,旨在促进更公平、透明的人脸识别和验证,并发现在减少人口属性不公平的同时,性能差距仍然存在。
Jun, 2024
本文分析了人脸质量评估和识别偏见之间的相关性,发现当前人脸质量评估算法也存在偏见,应注意公平和歧视问题。
Apr, 2020
本文探讨了收集人口统计数据用于实现算法公平性所面临的风险和挑战,并呼吁在数据管理和系统性压抑等领域中解决这些问题。
Apr, 2022
本文介绍了 MixFairFace 框架,旨在提高人脸识别模型的公正性,并通过新的评估协议来公平地评估不同方法的公平表现。此外,我们提出了 MixFair Adapter 来确定和减少训练样本的身份偏差,解决了面部表征中的身份偏差问题,从而在所有基准数据集中实现了最先进的公平性能。
Nov, 2022
本文对教育数据挖掘中不同组公平措施和学生表现预测模型进行比较,发现公平措施和成绩阈值的选择对模型的预测效果具有重要影响。
Aug, 2022
本研究提出了一种新的度量方法,用于评估多类多人口统计分类问题中面部表情识别中的代表性和刻板印象偏见以及训练模型的残余偏见。这些度量结合在一起,可以用于研究和比较不同的偏见缓解方法。在对 Affectnet 数据集进行分析后,我们发现其中存在巨大的种族偏见和性别定型,并提供了不同人口统计属性的不同子集来训练模型。
May, 2022