自囚于设备:模型如何在表现性预测中引起数据偏差
机器学习算法应用广泛,但也可能存在偏见和不公平。本研究提出了一种刻画数据偏见的分类法,并探究了算法的不公平和精度之间的权衡。实证研究表明,在不同的数据偏见设置下,算法的公平性和精度会受到不同的影响,而简单的预处理干预技术可以提高算法的公平性。
Jul, 2022
通过对执行预测的稳定解的公平性进行研究,我们发现在模型依赖的分布变化情况下,现有的公平机制可能会引发严重的极化效应和组内损失差异,并提出了一种能够同时实现稳定和公平的新的公平干预机制。
Jun, 2024
在社会分类问题中,我们通过利用预测模型的表现性来实现更强的群体公平保证,解决了冲突的群体公平定义,并通过决策者的能力引导人口以从长远来解决不公平问题。
May, 2024
本文提出了一个理论框架,建模了目标人群对已部署分类器的响应,同时研究了基于重复风险最小化和一种更懒惰的方法的两个重新训练算法的收敛性,能够更好的控制已部署分类器的影响,同时探讨了不同人群获取信息和资源的差异对已部署分类器的响应影响。
Nov, 2020
本文展示了在真实世界中基于 40 个高评分 Kaggle 模型的公平性评估及其 7 种缓解技术的实证研究。结果发现,部分优化技术会导致模型失公,尽管机器学习库中有公平控制机制,但这些机制未被记录。最佳的降低失公的方法往往存在权衡和代价.
May, 2020
该研究探讨了使用机器学习指导临床决策可能加剧现有的健康差距问题的潜力,并分析了算法公平的适用性、技术限制以及与机器学习在医疗保健中使用相关的社会技术背景。研究结果表明,在对各组之间的预测分布差异进行惩罚的情况下,几乎所有团体内的多项绩效指标都会降低,并且算法公平性方法在消除健康差距方面仍存在许多有待解决的问题。
Jul, 2020
本研究提出了一种新颖的深度学习架构,结合了预处理方法和处理方法来提高预测的公平性,结果表明相比于偏见校正方法和没有任何偏见校正的模型,所提出的模型在提高犯罪预测的公平性方面取得了进步,但牺牲了一定的准确性。
Jun, 2024
本研究旨在检查现有知识中关于机器学习模型中的偏见和不公平的研究,并识别减弱算法不公平和偏差的方法、公平性度量和支持工具。经过系统文献综述,发现了 40 篇可用于 Scopus、IEEE Xplore, Web of Science 和 Google Scholar 知识库的文章。结果表明,针对 ML 技术的多种偏见和不公平检测与减轻方法,在文献中定义了明确的度量标准,可以突出不同的度量标准。因此建议进一步研究,以定义在每种情况下应采用的技术和指标,以标准化并确保机器学习模型的公正性,从而允许最适当的度量标准来检测偏见和不公平。
Feb, 2022
本文提出了一个利用因果推断工具来建立公正性模型的框架,以避免机器学习在保险、贷款、雇佣和预测执法等领域的不公正决策,避免造成基于不公正数据的歧视性做法,以法学院成功的公平预测为实际问题进行了实证研究。
Mar, 2017