重新审视 ProPublica 的 COMPAS 数据
我们的研究旨在解决现代社会中的问题:即不能透明化的算法会导致错误的结论,而透明化可以更好地保证公平和公正。我们通过对一个包括年龄和种族在内的偏差算法的反向工程分析,发现了数据不一致的情况,从而对于透明化趋势的影响进行了讨论。
Nov, 2018
本文分析了一个犯罪预测软件工具 (COMPAS) 对美国非裔被告的偏见,使用因果推断方法来估算算法公平性的因果相关性测量指标 (FACT),得出了 COMPAS 在预测中存在着对非洲裔被告的种族偏见,并且其估算结果对未测量到的混淆因素具有鲁棒性。
Nov, 2019
通过对抗式训练神经网络来消除 COMPAS 分数对黑人囚犯的不公平偏见,我们获得了更高的预测准确性,并更接近实现公平的两个指标:平等和机会均等性。这项研究提供了一个高风险的现实应用中科学复制和简化的例子,即再犯预测。
Jun, 2018
利用风险评估工具数据集(RAI),特别是 ProPublica 的 COMPAS 数据集来比较算法性能是常见的,然而我们发现这些数据集可能会存在大量的测量偏差和错误,而且算法公平性应用于 RAI 数据集在对现实世界结果提出要求时具有局限性。此外,如何进行算法公平性实践是受到了对公平,正义和平等价值观的透明参与的影响,而且这些因素引出了一个问题,即这些在本质上是社会技术系统的基准是否可以以有益和合乎道德的方式存在。
Jun, 2021
本研究通过对机器预测结果与多个 Turk 工人预测结果的比较,探讨了人机混合模型在预测再犯罪风险时的优劣势,旨在更好地利用人工智能和人工智能之间的互补优势,以更公平、准确地进行风险评估。
Aug, 2018
本文讨论了最近被应用于评估惯犯再犯预测工具公平性的几个公正标准,证明了当不同群体的惯犯再犯率不同时,这些标准无法同时满足。然后说明了当再犯预测工具未能满足错误率平衡标准时如何产生不同影响。
Feb, 2017
通过对 COMPAS 数据集的模拟研究,本文调查了风险评估工具(RAIs)的评估者间的一致性,发现不同群体在 RAIs 的评估者间不一致性方面存在系统差异。
Aug, 2023
介绍了洛杉矶市检察官办公室新的累犯降低和药物转变组(R2D2),以基于机器学习的决策制定中的预测公平性的案例研究促进效率和公平,旨在通过发展量身定制的社会服务干预方案,改善曾多次卷入刑事司法系统的人的结果。
Jan, 2020
本研究通过收集新的人员判断数据,尝试从人员标注数据中学习类似度度量,以实现个人公平性。研究结果表明,所学度量优于欧几里得度量和精度度量,并为学习诸如个人公平度量之类的度量提供了一种工具。
Oct, 2019
本文提出了一种概率算法偏见的方法,通过消除模型将要训练的数据中所有关于保护变量的信息来消除模型中的偏见。我们将我们的方法应用于一个关于罪犯在被判决时的犯罪历史数据集,并证明了一种创建 “种族中立” 模型的常见方法 - 即忽略种族作为协变量 - 仍然会导致种族差异预测。最后,我们证明了采用我们提出的方法可以最小限度地对预测精度产生影响,同时消除预测中的种族差异。
Mar, 2017