本文论述了算法公正与数据分布的关系,即算法公正干预可以帮助机器学习模型克服数据分布的偏差,并且领域自适应方法可以减轻算法偏差。
May, 2022
本文通过领域自适应问题提出了新的理论和建模方法,为在新数据少的目标领域中改善公平性提供了解决方案,实证结果证明该方法能够较少数据的情况下改善公平指标
Jun, 2019
研究算法公平性和隐私在机器学习中的应用,分析了公平性对训练数据信息泄露的影响,发现公平性会牺牲一部分隐私权,特别是对弱势群体。同时,训练数据的偏差越大,为了弱势群体的公平性所付出的隐私成本也越高。
Nov, 2020
本文通过研究模型,发现在刑事司法中,平衡不同人群的类型 I 和类型 II 错误与最小化总犯罪率目标是一致的,而其他流行的公平理念则不然。
Feb, 2020
研究机器学习中的算法偏差问题,提出一种同时确保公平和多样性的数据子抽样算法,并在图像总结任务中取得了显着的公平性改善和不太牺牲特征多样性的结果。
Oct, 2016
本文展示了在真实世界中基于 40 个高评分 Kaggle 模型的公平性评估及其 7 种缓解技术的实证研究。结果发现,部分优化技术会导致模型失公,尽管机器学习库中有公平控制机制,但这些机制未被记录。最佳的降低失公的方法往往存在权衡和代价.
May, 2020
讨论如何使用因果贝叶斯网络和最优输运理论来处理机器学习公平性问题,尤其是在复杂的不公平场景下,提出了一种统一的框架来处理不同的情况和公平标准,并介绍了一种学习公平表示的方法和一种考虑敏感属性使用限制的技术。
Dec, 2020
机器学习算法应用广泛,但也可能存在偏见和不公平。本研究提出了一种刻画数据偏见的分类法,并探究了算法的不公平和精度之间的权衡。实证研究表明,在不同的数据偏见设置下,算法的公平性和精度会受到不同的影响,而简单的预处理干预技术可以提高算法的公平性。
Jul, 2022
本篇研究通过开发公开基准来对不同的公平性增强算法进行比较,并发现许多公平性措施之间具有强烈的相关性,但这些措施也对数据集构成的波动敏感,这表明公平干预可能比以前认为的更脆弱。
Feb, 2018
使用机器学习来减少公平性差异和确保准确性在真实世界中的平衡是政策制定者关注的问题,本文通过实证研究发现,在教育、心理健康、刑事司法和住房安全等领域中使用后期处理措施来解决公平性问题,能够显著提高公平性而不牺牲准确性,实现在政策中使用机器学习的目的。