机器学习公平性的因果推断权衡分析
本文强调通过因果关系的发现步骤,适当地使用因果关系来解决公平性问题的重要性,并且通过使用合成和标准公平性基准数据集的实证分析来证实了即使微小的因果模型差异也可能对公平性 / 歧视的结论产生重大影响。
Jun, 2022
本文提出了一个因果公平性分析的框架,以理解、建模和可能解决决策设置中的公平问题。研究挑战是挖掘潜在的因果机制并将各种公平度量与结构机制和人口单位归因。最后,提出了一个公平的菜谱,以评估不公平对各个人群的影响。
Jul, 2022
讨论如何使用因果贝叶斯网络和最优输运理论来处理机器学习公平性问题,尤其是在复杂的不公平场景下,提出了一种统一的框架来处理不同的情况和公平标准,并介绍了一种学习公平表示的方法和一种考虑敏感属性使用限制的技术。
Dec, 2020
机器学习系统可能基于性别、性别、宗教或种族等敏感特征表现出歧视行为,因此提出了各种公平性概念和量化歧视方法,并发展了构建公平预测器的众多方法。本研究首次从因果角度分析了公平性和准确性之间的紧张关系,提出了路径特定过量损失(PSEL)的概念来衡量当强制施加因果公平性约束时预测器的损失增加程度,并证明了总过量损失(TEL)可以分解为更多本地 PSEL 值的总和。同时,强制施加因果约束通常会减少人群之间的差距。因此,我们引入了一个数量,用于总结公平性和效用之间的权衡,称为因果公平 / 效用比,定义为减少歧视与约束因果路径产生的过量损失之间的比值。最后,由于我们的方法需要具有因果约束的公平预测器,我们介绍了一种新的用于因果约束公平学习的神经方法。
May, 2024
本文介绍了一种使用因果干预公平性范例,通过在数据管理的集成组件中考虑公平性来识别特征以提高预测质量而不添加偏差的方法,提出了一种使用条件独立性检测的方法来确定确保干预公平的特征子集,并通过现实世界的数据集进行了详细的实证评估,证明了方法的有效性和效率。
Jun, 2020
本文探讨了基于因果关系的公平性概念及其在实际场景中的适用性,并针对采用观察数据估计因果量的不同方法,包括可辨识性和潜在结果框架进行了综合报告,提供出一个指南来帮助选择适合特定实际场景的公平性概念,并根据 Pearl 的因果推理难度对公平性概念进行了排名。
Oct, 2020
本文利用因果推断和解释性机器学习的最新进展,提出了一种算法无关的框架 (MIIF),用于测量、解释和改进算法决策的公平性。我们使用随机实验来测量算法偏差,从而能够同时测量不同对待、不同影响和经济价值。此外,利用现代解释性技术,我们开发了一个可解释的机器学习模型,准确解释和提炼黑盒算法的信念。总的来说,这些技术为研究算法公平性创造了一个简单而强大的工具集,特别适用于理解实际应用中公平性成本的电子商务和目标广告等领域,其中行业的 A/B 测试已经非常丰富。
Sep, 2023
政府在制定和执行政策时,灵活生成异质治疗效应估计的因果机器学习方法可能是非常有用的工具。本文认为,标准的 AI 公平性方法并不适用于所有因果机器学习应用,因为因果机器学习通常使用建模来为最终的决策者提供信息,而 AI 公平性方法则假设模型直接做出决策。我们将这些情境分别定义为间接和直接决策,认为政策制定最好视为一项联合决策,其中因果机器学习模型通常只具有间接权力。我们提出了此情境下的公平性定义,即一个模型能为决策者提供准确做出关于公正政策结果的价值判断所需的信息,并指出因果机器学习模型的复杂性可能使其难以实现。解决方法不是传统的 AI 公平性调整,而是谨慎的建模和意识到这些方法可能鼓励的一些决策偏差。
Sep, 2023
本研究提出了一种计算因果公平性的框架,其中定义了一个旨在涵盖前期因果公平概念的统一定义,并使用约束优化问题对路径特定反事实公平性进行了界定,以解决可辨识性的问题,实验表明了本方法的正确性和有效性。
Oct, 2019