公平机器学习的延迟影响
本文针对决策公平性方面的长期影响进行研究,研究人员通过模拟静态公平约束下群体福祉的平等和改进的长期影响以及潜在的干预措施,发现其对于群体福利可同时具有促进平等和增加差距两种影响,同时提出一种理论框架并完成了基于实际数据与模拟动态的社会科学研究。
Oct, 2020
通过研究现有文献,本调查从不同角度回顾了长期公平性的研究,并提出了一个分类法。我们突出了一些关键挑战,考虑了未来的研究方向,分析了现有的问题和潜在的深入探索。
Jun, 2024
本研究介绍了 ELF 分类算法,通过考虑决策在人们的生活和福祉中所产生的长期影响,提供高可信的公平性保证,并证明了 ELF 返回不公平解决方案的概率小于用户指定的公差。同时我们的实验表明该算法能够成功地缓解长期的不公平现象。
Aug, 2022
在机器学习中实现公平的系统在长期与人类互动中可能会出现旧的偏见加强甚至出现新的偏见,该研究提出了一种在实时中监测公平性的技术,通过监视长时间的系统事件来及时判断系统当前的公平性,从而建立并部署一个公平性监视器,该监视器是第三方公正的甄别器,能够监测银行的信贷政策或资源分配者的分配政策是否公平。
May, 2023
通过引入一个名为 LoTFair 的在线算法,本研究提出了一个框架,用于在具有时间变化公平性约束的动态决策系统中确保长期公平性。研究证明,LoTFair 可以在保持长期性能的同时,使整体公平性违规变得微不足道。
Jan, 2024
本篇研究通过开发公开基准来对不同的公平性增强算法进行比较,并发现许多公平性措施之间具有强烈的相关性,但这些措施也对数据集构成的波动敏感,这表明公平干预可能比以前认为的更脆弱。
Feb, 2018
本文提出了一种在在线强化学习中形式化长期公平的方法;该方法可以适应不同的控制目标,通过牺牲短期激励来推动分类器 - 人群系统朝着更理想的均衡状态发展,从而在损失和公平违规之间实现同时概率边界的算法。
Apr, 2023
通过对模型的前后公平性进行评估,研究发现,在数据分布和训练数据规模发生变化时,数据和模型公平性指标之间存在线性关系。这表明,在训练之前对公平性进行测试可以尽早发现有偏见的数据收集过程,检测生产系统中的数据漂移,并减少全面训练周期的执行,从而减少开发时间和成本。
Jan, 2024