发现和消除直接和间接歧视的因果框架
本文介绍一种基于倾向得分分析的原因型歧视方法,并利用回归树学习新的歧视 / 偏袒模式,验证在两个现实世界的数据集上,它可以加强机器学习透明度并探测训练数据和学习算法中的歧视性偏差。
Aug, 2016
本文综述了关于如何消除历史数据中偏见和歧视对预测模型造成的影响的研究,包括综述了各种可用于测量数据中歧视的方法和评估反歧视预测模型性能的措施,并提出了非歧视性预测建模的实践建议。
Oct, 2015
本文强调通过因果关系的发现步骤,适当地使用因果关系来解决公平性问题的重要性,并且通过使用合成和标准公平性基准数据集的实证分析来证实了即使微小的因果模型差异也可能对公平性 / 歧视的结论产生重大影响。
Jun, 2022
发展公平性应用的高效因果发现方法,我们引入局部发现直接歧视(LD3):一种多项式时间算法,用于提取直接歧视的结构证据,并证明该准则由 LD3 返回的知识满足,增加了加权控制直接效应作为因果公平性度量的可靠性。以肝脏移植分配为案例研究,我们展示了 LD3 在模拟复杂决策系统中建模公平性方面的潜在影响。真实世界数据的结果相比基准更可信,且执行时间快 197 倍至 5870 倍。
May, 2024
该研究研究了针对歧视的研究中,如何测量种族和性别在结果中的因果效应,以及可能影响测量结果的潜在偏差,并提出了一个基于忽略性假设的研究方法,在一个大型县的检察机构的充公决策数据中进行了模拟剖析
Jun, 2020
机器学习在伦理学、保险定价和风险选择方面面临着人们日益关注的议题,本研究探讨了间接性歧视的风险,并提出了一种基于线性代数的创新方法来降低间接性歧视的风险,以提高保险的公平性和性能表现。
Jul, 2023
准确测量在基于机器学习的自动决策系统中的歧视是解决子群体和 / 或个体间公平性的重要问题所必需的。本文关注于在生成和 / 或收集训练数据的方式中出现的一类偏见,我们称之为因果偏见,并使用因果关系领域的工具来正式定义和分析此类偏见。本文考虑了四种来源的偏见,即混杂、选择、测量和交互。本文的主要贡献是为每种偏见提供了一个基于模型参数的闭合表达式。这使得分析每种偏见的行为成为可能,特别是在哪些情况下它们不存在,以及在哪些其他情况下它们被最大化。我们希望提供的特征有助于社会更好地理解机器学习应用中偏见的来源。
Oct, 2023