本文提出了一种方法,通过学习语义空间中可解释和有意义的路径来减轻深度学习区分模型中的相关性,以提高公平性。通过编辑受保护特征(如年龄和肤色),将这些路径应用于增强图像,从而改善给定数据集的公平性。
Nov, 2023
本文介绍了一个最小二乘对抗框架,其中一个发生器生成学习个体的潜在表示,一个评论家保证了不同保护组的分布相似,从而在保留足够信息的同时解决了受保护属性引起的潜在偏差问题,为公平分类提供了理论保证。经验结果表明,这种方法可以有效地用于分类任务,特别是在删除受保护属性不足以实现公平分类的情况下。
Apr, 2019
本文介绍了一种使用 GAN 生成图像并在潜在空间中扰动以生成可以平衡每个受保护属性的训练数据的方法,以缓解由相关性所引起的偏差,通过在原始数据集上增加扰动生成的数据,实证证明训练结果准确且具有许多定量和定性上的优势。在 CelebA 数据集上进行了全面评估和分析,与现有文献进行了比较。
Dec, 2020
为了防止受保护人口受到歧视,减轻数据拥有者法律责任,本文尝试通过映射特征到公平表征空间,预防性地消除特征与敏感属性之间的相关性。实验结果表明,平滑表征分布可提供公平证书的泛化保证,同时不降低下游任务的准确性。
Jun, 2020
利用生成的训练数据集中的人口属性平衡机制,提出了一种全面的评估方法,旨在促进更公平、透明的人脸识别和验证,并发现在减少人口属性不公平的同时,性能差距仍然存在。
Jun, 2024
本文提出了一种信息理论动机的目标函数,用于学习在公平约束条件下最具表达力的数据表示,旨在通过控制不公平性极限的方式帮助用户控制数据表示的公平性,证明了现有方法无法完全实现此目标,通过引入一种优化模型参数和表达力 - 公平性权衡的方法来平衡多种公平概念的权衡,并在更低的计算成本下实现更高的表达能力。
Dec, 2018
本文提出了一种使用编码器 - 解码器网络开发的人脸图像合成方法,以测量商业计算机视觉分类器的反事实公平性,并报告了在线搜索服务中与职业相关的关键字中出现的偏向性,用以解释模型偏差的来源。
May, 2020
为了解决模型中存在的错误偏见,本研究提出了一种新的预处理方法 - 公平映射,通过转换敏感组的数据分布到一个特定的目标分布上,并且实现保护敏感属性不被推论的目标来改善数据的公平性。实验结果表明,该方法能够同时隐蔽敏感属性,不失数据的特性,同时提高了后续数据分析任务的公平性。
Sep, 2022
本文研究通过对抗训练神经网络来消除敏感属性信息从而实现分类器 “公平” 的方法。发现只需要少量数据即可训练出具有公平性的分类器,并且数据分布影响对手的公平概念。
Jul, 2017
本文提出了一个关于面部和医学图像的基准测试,并介绍了一个新的谐波公平(HF) 得分来综合地评估每个模型在准确性和公正性方面与参考基线相比的情况。实验结果发现,CD 方法比最先进的公平算法更能有效地解决模型公理问题。综上所述,我们的工作为计算机视觉中的公平性问题提供了更系统的分析方法。
Mar, 2023