偏差、不平等和公平性的因果基础
该研究研究了针对歧视的研究中,如何测量种族和性别在结果中的因果效应,以及可能影响测量结果的潜在偏差,并提出了一个基于忽略性假设的研究方法,在一个大型县的检察机构的充公决策数据中进行了模拟剖析
Jun, 2020
准确测量在基于机器学习的自动决策系统中的歧视是解决子群体和 / 或个体间公平性的重要问题所必需的。本文关注于在生成和 / 或收集训练数据的方式中出现的一类偏见,我们称之为因果偏见,并使用因果关系领域的工具来正式定义和分析此类偏见。本文考虑了四种来源的偏见,即混杂、选择、测量和交互。本文的主要贡献是为每种偏见提供了一个基于模型参数的闭合表达式。这使得分析每种偏见的行为成为可能,特别是在哪些情况下它们不存在,以及在哪些其他情况下它们被最大化。我们希望提供的特征有助于社会更好地理解机器学习应用中偏见的来源。
Oct, 2023
通过分析算法公平性的因果定义,本文发现无论是基于对抗偏见的决策影响还是基于法律保护分类的影响,这些定义几乎总是以极端帕累托支配的决策方案结束,这突显了因果公平性普遍数学概念的形式限制和潜在的不良后果。
Jul, 2022
本研究通过因果模型的视角考虑了决策系统是否基于性别、种族、宗教等方面会造成歧视的问题,引入了基于因果关系的群体公平的两个定义:FACE 和 FACT,提出了鲁宾 - 尼曼潜在结果框架来鲁棒地估算 FACE 和 FACT,并在合成数据上展示了方法的有效性。同时,作者还在真实数据集上进行了分析,发现 FACT 比 FACE 更微妙,在不同情形下可得出不同结论。
Mar, 2019
本文介绍一种基于倾向得分分析的原因型歧视方法,并利用回归树学习新的歧视 / 偏袒模式,验证在两个现实世界的数据集上,它可以加强机器学习透明度并探测训练数据和学习算法中的歧视性偏差。
Aug, 2016
通过数学和模拟,作者表明现有的用于测量群体间的模型性能差异的度量大多是基于统计偏差的估计量,因此提出了一种 “双校正” 方差估计器,提供了模型性能在群体间变化的无偏估计和不确定性量化,这种方法在现实数据集上的应用表明,在统计偏差的影响下,群组间的性能差异不再显著。
May, 2022
本文强调通过因果关系的发现步骤,适当地使用因果关系来解决公平性问题的重要性,并且通过使用合成和标准公平性基准数据集的实证分析来证实了即使微小的因果模型差异也可能对公平性 / 歧视的结论产生重大影响。
Jun, 2022
本文通过探索 “原因模型” 的形式假设,阐述性别仅仅是一个性状的集合是虚假的,这对于如何使用模型检测歧视具有重要意义,并且构成一个不同类型的对待歧视的道德问题。
Jun, 2020
本文通过利用因果网络捕捉数据的因果结构,将直接和间接歧视建模为路径特异性效应,并提出了一种有效的算法,用于发现和消除直接和间接歧视,以及保留数据效用。实验结果表明,该方法有效性较高。
Nov, 2016