讨论如何使用因果贝叶斯网络和最优输运理论来处理机器学习公平性问题,尤其是在复杂的不公平场景下,提出了一种统一的框架来处理不同的情况和公平标准,并介绍了一种学习公平表示的方法和一种考虑敏感属性使用限制的技术。
Dec, 2020
探讨机器学习算法公平性如何在预测任务中被正式化,并提供相应的社会科学文献中分配公正的概念,通过理论和实证批判这些概念,并解释这些批判如何限制相应公平正式化的适用性和讨论潜在公平正式化的路径。
Oct, 2017
本文介绍了一种新的处理公平性的方法,通过建立一个随机多目标优化问题,得到一组准确且平衡的 Pareto 前沿,以此权衡准确度和公平性,以更高效地处理大量的流数据。
Aug, 2020
本文首先介绍了统计算法在决策中的应用,提出了公平性的概念,进而研究了不同的公平性定义。特别地,文中重点研究了不平等影响和平衡误差率这两个概念,并探讨了它们之间的关系。其目的在于检测二分类规则是否缺乏公平性,同时修改输入数据以应对潜在的歧视问题。针对后者,本文利用最优传输理论对数据进行修改。
Jun, 2018
该研究探讨了使用机器学习指导临床决策可能加剧现有的健康差距问题的潜力,并分析了算法公平的适用性、技术限制以及与机器学习在医疗保健中使用相关的社会技术背景。研究结果表明,在对各组之间的预测分布差异进行惩罚的情况下,几乎所有团体内的多项绩效指标都会降低,并且算法公平性方法在消除健康差距方面仍存在许多有待解决的问题。
Jul, 2020
提出一种新的方法来解决基于人工智能的交通出行需求预测中存在的公平性问题,通过在交通出行需求预测模型的损失函数中添加公平性正则项,以相应受保护属性(如种族、收入等)与预测准确度之间的相关性作为衡量指标,来同时考虑预测准确度和公平性。在芝加哥的真实骑行约车数据上进行实证分析,结果表明该方法有效地解决了预测准确性与公平性的平衡问题。
Mar, 2023
为保证公正性,公平机器学习算法致力于消除不同群体间的行为差异,但是研究表明,在训练数据存在偏差的情况下,将同等的重视不同规模和分布的不同群体,可能会与鲁棒性相冲突,攻击者可以通过对样本和标签的控制来攻击群体公平性机器学习,从而在测试数据上显著降低测试准确率,本文评估了多种算法和基准数据集的攻击,分析了公平机器学习的鲁棒性。
Jun, 2020
研究提出了一个信息理论框架来设计公平的预测器,以在监督学习环境中防止对指定敏感属性的歧视。使用平等的机会作为歧视标准,这要求在实际标签的条件下,预测应独立于受保护属性。同时确保公平和泛化,将数据压缩到辅助变量,再通过贝叶斯决策规则得到最终预测器。
Jan, 2018
本篇研究通过开发公开基准来对不同的公平性增强算法进行比较,并发现许多公平性措施之间具有强烈的相关性,但这些措施也对数据集构成的波动敏感,这表明公平干预可能比以前认为的更脆弱。
Feb, 2018
机器学习中的公平干预可能会加剧预测复杂性,而提出了一种可应用于任何公平干预的集成算法来解决挑战并确保更一致的预测。
Jun, 2023