研究人类与机器的互补性用于累犯预测
本文分析了一个犯罪预测软件工具 (COMPAS) 对美国非裔被告的偏见,使用因果推断方法来估算算法公平性的因果相关性测量指标 (FACT),得出了 COMPAS 在预测中存在着对非洲裔被告的种族偏见,并且其估算结果对未测量到的混淆因素具有鲁棒性。
Nov, 2019
我们的研究旨在解决现代社会中的问题:即不能透明化的算法会导致错误的结论,而透明化可以更好地保证公平和公正。我们通过对一个包括年龄和种族在内的偏差算法的反向工程分析,发现了数据不一致的情况,从而对于透明化趋势的影响进行了讨论。
Nov, 2018
通过对抗式训练神经网络来消除 COMPAS 分数对黑人囚犯的不公平偏见,我们获得了更高的预测准确性,并更接近实现公平的两个指标:平等和机会均等性。这项研究提供了一个高风险的现实应用中科学复制和简化的例子,即再犯预测。
Jun, 2018
该研究探讨了算法工具在儿童虐待热线筛选决策方面的应用,结果显示人类对机器的建议进行了更改,缺乏自主权的全自动化决策管道存在风险。
Feb, 2020
本文提出和开发了一个针对带赌徒反馈的人机协作问题的解决方案,旨在利用人机互补性最大化决策收益,在多个人类决策者的环境中展开并表现出效用,并呈现出当机器和人类各自单独做出决策时,我们的方法胜过两者的能力,以及如何在多个人类决策者的情况下实现个性化路由以进一步提高人机团队的表现。
May, 2021
研究发现,即使在诊断精度高于人类专家的情况下,人类专家仍然可能会为高风险预测任务添加价值,并提出了一种统计框架来检测这种专家水平。这个框架在急诊科的数据上进行了测试。
Jun, 2023
本研究通过收集新的人员判断数据,尝试从人员标注数据中学习类似度度量,以实现个人公平性。研究结果表明,所学度量优于欧几里得度量和精度度量,并为学习诸如个人公平度量之类的度量提供了一种工具。
Oct, 2019
提出了一种名为 'FairCompass' 的人在循环中的公平审计方法,通过混合可视化分析系统将子组发现技术和基于决策树的模式集成到终端用户中,以促进可视分析的知识生成模型的使用,在实际情境中评估了 FairCompass 的公平审计效果,结果显示该系统在实际应用上具有潜力,望能填补公平性研究中的现行空白并促进在机器学习系统中的公平性操作实施。
Dec, 2023
现有的算法公平性方法旨在确保人类决策者与算法决策完全一致,然而,在人工智能与人类协作中,与算法的完全一致很少实现或者甚至是不可取的。我们提出了 “合规性鲁棒公平算法推荐” 概念,它能够保证在决策中改善公平性,无论人类的合规模式如何。然而,我们发现设计同时具备独立公平性、合规性鲁棒公平性和比人类决策更准确的算法推荐可能是不可行的,因此,如果我们的目标是改善人工智能与人类协作的公平性和准确性,可能不应强制执行传统的公平性约束。
Oct, 2023