因果推理对于评估公平性至关重要,尤其是自动化决策和合法反歧视程序中。在实践中应用因果关系的挑战和限制以及可能的解决方案也进行了讨论。
Jul, 2022
通过分析算法公平性的因果定义,本文发现无论是基于对抗偏见的决策影响还是基于法律保护分类的影响,这些定义几乎总是以极端帕累托支配的决策方案结束,这突显了因果公平性普遍数学概念的形式限制和潜在的不良后果。
本文强调通过因果关系的发现步骤,适当地使用因果关系来解决公平性问题的重要性,并且通过使用合成和标准公平性基准数据集的实证分析来证实了即使微小的因果模型差异也可能对公平性 / 歧视的结论产生重大影响。
Jun, 2022
本文提出了一个因果公平性分析的框架,以理解、建模和可能解决决策设置中的公平问题。研究挑战是挖掘潜在的因果机制并将各种公平度量与结构机制和人口单位归因。最后,提出了一个公平的菜谱,以评估不公平对各个人群的影响。
本研究通过因果模型的视角考虑了决策系统是否基于性别、种族、宗教等方面会造成歧视的问题,引入了基于因果关系的群体公平的两个定义:FACE 和 FACT,提出了鲁宾 - 尼曼潜在结果框架来鲁棒地估算 FACE 和 FACT,并在合成数据上展示了方法的有效性。同时,作者还在真实数据集上进行了分析,发现 FACT 比 FACE 更微妙,在不同情形下可得出不同结论。
Mar, 2019
该研究探讨了机器学习中公平性的定义和测量方法,提出了基于因果推理的非歧视标准,并开发了相应的算法。
Jun, 2017
本文探讨了基于因果关系的公平性概念及其在实际场景中的适用性,并针对采用观察数据估计因果量的不同方法,包括可辨识性和潜在结果框架进行了综合报告,提供出一个指南来帮助选择适合特定实际场景的公平性概念,并根据 Pearl 的因果推理难度对公平性概念进行了排名。
Oct, 2020
本文利用因果推断和解释性机器学习的最新进展,提出了一种算法无关的框架 (MIIF),用于测量、解释和改进算法决策的公平性。我们使用随机实验来测量算法偏差,从而能够同时测量不同对待、不同影响和经济价值。此外,利用现代解释性技术,我们开发了一个可解释的机器学习模型,准确解释和提炼黑盒算法的信念。总的来说,这些技术为研究算法公平性创造了一个简单而强大的工具集,特别适用于理解实际应用中公平性成本的电子商务和目标广告等领域,其中行业的 A/B 测试已经非常丰富。
Sep, 2023
本论文使用因果分析作为分析机器学习中公平性参数和其他重要指标的权衡的原则方法,并在广泛使用的公平性改进技术上进行了全面的实证研究,提供了可操作的建议,以及在选择最佳公平性改进方法方面提供了多种可能性。
May, 2023
聚类算法可能无意中传播或加剧现有的不平等,导致不公正的表示或有偏见的决策。本文提出了一种聚类方法,该方法结合因果公平度量,以在无监督学习中提供更细致入微的公平方式。我们的方法使得可以指定应该最小化的因果公平度量,并使用已知具有不公平偏差的数据集证明了我们方法的功效。
Dec, 2023