基于条件公平性的算法决策
通过结合对抗学习和一种新颖的逆条件排列,我们介绍了一种公平学习方法,有效且灵活地处理多个敏感属性,可能包含不同数据类型,从而填补了当前研究中专注于单个敏感属性违反平衡几率的空白。通过模拟研究和对真实数据集的实证分析,我们展示了该方法的功效和灵活性。
Apr, 2024
本文提出了一个因果公平性分析的框架,以理解、建模和可能解决决策设置中的公平问题。研究挑战是挖掘潜在的因果机制并将各种公平度量与结构机制和人口单位归因。最后,提出了一个公平的菜谱,以评估不公平对各个人群的影响。
Jul, 2022
本研究提出了一种计算因果公平性的框架,其中定义了一个旨在涵盖前期因果公平概念的统一定义,并使用约束优化问题对路径特定反事实公平性进行了界定,以解决可辨识性的问题,实验表明了本方法的正确性和有效性。
Oct, 2019
通过分析算法公平性的因果定义,本文发现无论是基于对抗偏见的决策影响还是基于法律保护分类的影响,这些定义几乎总是以极端帕累托支配的决策方案结束,这突显了因果公平性普遍数学概念的形式限制和潜在的不良后果。
Jul, 2022
本文探讨了基于因果关系的公平性概念及其在实际场景中的适用性,并针对采用观察数据估计因果量的不同方法,包括可辨识性和潜在结果框架进行了综合报告,提供出一个指南来帮助选择适合特定实际场景的公平性概念,并根据 Pearl 的因果推理难度对公平性概念进行了排名。
Oct, 2020
本研究通过因果模型的视角考虑了决策系统是否基于性别、种族、宗教等方面会造成歧视的问题,引入了基于因果关系的群体公平的两个定义:FACE 和 FACT,提出了鲁宾 - 尼曼潜在结果框架来鲁棒地估算 FACE 和 FACT,并在合成数据上展示了方法的有效性。同时,作者还在真实数据集上进行了分析,发现 FACT 比 FACE 更微妙,在不同情形下可得出不同结论。
Mar, 2019
介绍了一种框架,在该框架中,可以将成对的个体标识为需要(大约)相等的待遇。我们引入了一种算法,可以在满足预设的公平性约束条件下学习最准确的模型,并证明了其准确性和公平性的泛化界限。该算法还可以将传统的统计公平概念与 elicited constraints 相结合,从而通过前者 “纠正” 或修改后者。我们使用在 COMPAS 犯罪再犯率数据集上 elicited 的 human-subject 公平性约束条件的行为学研究报告了初步结果。
May, 2019
在预测为基础的决策中,建立一个概念性框架以识别责任和实施公平性治理机制,从而将注意力从抽象的算法公平性转向依情况而定的决策制定,认识到具有独特目标和独立行动的不同参与者。
Oct, 2023
本研究探讨了在自动化数据驱动决策中存在的公平性问题,并基于账单分配和无嫉妒性理论,提出了一种基于偏好的公平性概念及采用可行的代理方法设计符合偏好公平性观念的分类器。 通过实验得出此偏好公平性相较于基于平等的公平性更加实用。
Jun, 2017
本文提出了针对算法风险评估工具的反事实度量方法,并使用双重稳健估计方法估算反事实度量。作者提出的度量方法更适合在决策上下文中使用;因此,纵观标准公平度量和反事实度量,两者仅在特定条件下才能同时成立,本文提供了理论结果和实证结果以证明他们的方法优于标准做法。
Aug, 2019