研究发现 AI/ML 系统中存在的偏差主要来源于数据集中过度再现的特征。该论文提出了一种基于生成模型的方法,通过学习潜在变量来减少偏差引起的威胁,算法可以帮助移除数据集中的偏差。两个数据集上的实验结果表明,该方法取得了良好的效果。
Apr, 2022
本研究介绍了一种结合人类主观标签和数学定义的客观标注来减轻面部分类器中的偏见的学习方法,并通过集成学习方法进行了实验验证。
本文提出了用于面部分析的偏差检测 / 估计和减轻算法,并对已提出的偏差检测算法进行了系统综述。其主要贡献是对现有的偏差缓解算法进行了分类和广泛的概述。我们还讨论了偏差面部分析领域中的开放挑战。
Dec, 2021
本文针对面部表情识别领域的标签偏差问题,提出了一种利用面部动作单元进行带有三元损失的 AU 校准面部表情识别(AUC-FER)框架,实验证明该方法比现有技术更有效。
Aug, 2021
在深度学习模型使用高维输入和主观标签进行训练时,公正性依然是一个复杂且缺乏研究的领域。面部情绪识别是一个数据集往往存在种族不平衡问题的领域,可能导致模型在不同种族群体之间产生不同的结果。本研究聚焦于通过对具有多样种族分布的训练集进行子采样,以及评估这些模拟中的测试性能来分析种族偏见。我们的发现表明,较小的数据集中的伪造面孔可以在接近种族平衡的模拟中提高公正性和性能指标。值得注意的是,F1 分数平均增加了 27.2 个百分点,人口统计学平等指标平均增加了 15.7 个百分点。然而,在具有更多面部变化的较大数据集中,公正性指标通常保持不变,这表明仅仅种族平衡是无法在不同种族群体之间实现测试性能的平等的。
Aug, 2023
本文研究了人脸表情识别中的偏见与公平性问题,并对三种不同的方法在两个不同数据集上进行了比较,结果表明,使用数据增强的属性感知方法和解缠方法比基线方法更具准确性和公平性,在减轻人口统计学偏见方面,解缠方法是最好的选择。
Jul, 2020
利用生成的训练数据集中的人口属性平衡机制,提出了一种全面的评估方法,旨在促进更公平、透明的人脸识别和验证,并发现在减少人口属性不公平的同时,性能差距仍然存在。
Jun, 2024
本文探讨计算机视觉领域中,当进行看似不相关的任务(如活动识别或图像描述)训练时,模型学习偏见的问题,以及避免学习此类偏见的方法,并在 CelebA 数据集的属性分类任务中使用领域无关的训练技术,有效地减轻了现实世界中的性别偏见。
Nov, 2019
本研究通过重构和最小化预期变量之间的统计相依来解决图像训练数据偏见的问题,使用包含 U-net 和预训练分类器的架构,将所提出的模型与最新的去偏见方法进行了对比,并展示了模型的公正性 - 准确性组合。
Sep, 2022
本研究提出了一种新的度量方法,用于评估多类多人口统计分类问题中面部表情识别中的代表性和刻板印象偏见以及训练模型的残余偏见。这些度量结合在一起,可以用于研究和比较不同的偏见缓解方法。在对 Affectnet 数据集进行分析后,我们发现其中存在巨大的种族偏见和性别定型,并提供了不同人口统计属性的不同子集来训练模型。
May, 2022