预测机器学习软件配置的公平性
本文探讨了为了预测性能而优化机器学习模型时出现的不公平现象,以及如何通过公平感知的超参数优化来减轻这种不公平现象。我们提出并评估了三种受欢迎的公平感知的超参数优化算法的变种:Fair Random Search、Fair TPE 和 Fairband,并在实际案例研究和公平性文献中的三个数据集上验证了我们的方法,结果表明,无需额外的训练成本,可以找到 111% 平均公平性增加和仅 6% 性能下降的模型。
Mar, 2021
本文展示了在真实世界中基于 40 个高评分 Kaggle 模型的公平性评估及其 7 种缓解技术的实证研究。结果发现,部分优化技术会导致模型失公,尽管机器学习库中有公平控制机制,但这些机制未被记录。最佳的降低失公的方法往往存在权衡和代价.
May, 2020
本篇研究通过开发公开基准来对不同的公平性增强算法进行比较,并发现许多公平性措施之间具有强烈的相关性,但这些措施也对数据集构成的波动敏感,这表明公平干预可能比以前认为的更脆弱。
Feb, 2018
研究如何通过包含公平性在目标函数中来解决机器学习中涉及敏感特征的不公平性问题。提出了基于新的公平分类框架的新型公平回归和降维方法,并通过使用 Hilbert Schmidt 独立性准则作为公平项,实现了线性和非线性问题的评估。
Oct, 2017
在机器学习生态系统中,硬件选择经常被认为只是一个辅助工具,而算法和数据则是关注重点。然而,在诸如机器学习即服务平台这样的环境中,用户通常无法控制模型部署所使用的硬件,这种忽视尤其成问题。本文调查了硬件选择对模型性能和公平性之间微妙平衡的影响。我们通过理论和实证分析,不仅找出了其中的潜在因素,还提出了一种有效的策略来缓解硬件引起的性能不平衡。
Dec, 2023
我们考虑培训机器学习模型,使其在输入的某些敏感扰动下表现不变的公平性,这种公平性的形式化表述为个体公平性的一种变体,并使用分布鲁棒优化方法在训练期间强制执行。我们还展示了该方法在两个容易受到性别和种族偏见影响的机器学习任务上的有效性。
Jun, 2019
该研究探讨了使用机器学习指导临床决策可能加剧现有的健康差距问题的潜力,并分析了算法公平的适用性、技术限制以及与机器学习在医疗保健中使用相关的社会技术背景。研究结果表明,在对各组之间的预测分布差异进行惩罚的情况下,几乎所有团体内的多项绩效指标都会降低,并且算法公平性方法在消除健康差距方面仍存在许多有待解决的问题。
Jul, 2020
通过对模型的前后公平性进行评估,研究发现,在数据分布和训练数据规模发生变化时,数据和模型公平性指标之间存在线性关系。这表明,在训练之前对公平性进行测试可以尽早发现有偏见的数据收集过程,检测生产系统中的数据漂移,并减少全面训练周期的执行,从而减少开发时间和成本。
Jan, 2024