模型训练中优化平等机会公平性
本文提出了一种用于对抗训练的增强鉴别器,以更丰富的特征和更明确的方式建模平等机会,实验证明相比标准的针对偏见的对抗性去偏见方法,我们的方法在性能 - 公平性平衡方面有很大的改进。
Mar, 2022
该研究旨在解决自然语言处理中与作者人口统计信息相关的系统偏差问题,提出了一种基于数据集平衡和带保护属性的门控模型来实现公正性,证明了该方法在减少偏差方面优于其他技术。
Sep, 2021
研究提出了一个信息理论框架来设计公平的预测器,以在监督学习环境中防止对指定敏感属性的歧视。使用平等的机会作为歧视标准,这要求在实际标签的条件下,预测应独立于受保护属性。同时确保公平和泛化,将数据压缩到辅助变量,再通过贝叶斯决策规则得到最终预测器。
Jan, 2018
为保证公正性,公平机器学习算法致力于消除不同群体间的行为差异,但是研究表明,在训练数据存在偏差的情况下,将同等的重视不同规模和分布的不同群体,可能会与鲁棒性相冲突,攻击者可以通过对样本和标签的控制来攻击群体公平性机器学习,从而在测试数据上显著降低测试准确率,本文评估了多种算法和基准数据集的攻击,分析了公平机器学习的鲁棒性。
Jun, 2020
考虑机器学习分类器对不同民族、群体的不公平对待问题,本文提出了公正约束的多种方式,以及带有偏见的训练数据对分类器性能的影响,并探讨了如何利用公正约束的 Empirical Risk Minimization 算法来调整分类器以达到公平与精确度的平衡。具体而言,在选择 Equal Opportunity 以及使用 ERM 算法时能够达到 Bayes Optimal Classifier。
Dec, 2019
本文提出了一种新的基于因果关系的公平判定方法:努力平等。与现有的公平概念不同的是,努力平等不仅关注于两个群体之间的决策差异,而且还帮助回答了当特定个体实现特定结果水平时应合理变化的合法性变量的程度,以及保护组和无保护组个体实现相同结果水平所做的努力是否不同等问题。研究团队开发了算法来确定在平等的努力方面是否存在歧视,并发展了一种基于优化的方法,用来消除数据中的歧视影响。而实验结果表明,与现有的公平概念相比,努力平等的算法更为有效。
Nov, 2019
本文提出了两个算法,通过因果模型和反事实决策来实现公平的机器学习预测器,以实现提供平等机会和重修历史劣势。在包括招生、收入、信用和再犯等领域的数据集上进行评估与权衡,结果表明这些预测器在理论上达到了预测性能的最优,同时满足公平性。
May, 2019
本论文提出了一种采用对比学习的分类器去偏置化的方法,使得模型在保持主要任务性能的前提下,更加公平地代表输入的各种属性,并取得了在 NLP 和计算机视觉四个任务中的优异表现。
Sep, 2021
本文提出使用深度学习模型的一种新方法 ——Distraction module 来控制偏见对分类结果的影响,并在不同类型的数据上进行了测试,证明了该模型在维持准确性的同时最小化了偏见。
Mar, 2022