路径特定的反事实公平性
本文提出了一种新的框架 CLAIRE,通过对反事实数据增广和不变化惩罚的表征学习框架有效地减轻了敏感属性的偏差,并在合成和真实数据集上的实验验证了 CLAIRE 在反事实公平性和预测性能方面的优越性。
Jul, 2023
机器学习系统可能基于性别、性别、宗教或种族等敏感特征表现出歧视行为,因此提出了各种公平性概念和量化歧视方法,并发展了构建公平预测器的众多方法。本研究首次从因果角度分析了公平性和准确性之间的紧张关系,提出了路径特定过量损失(PSEL)的概念来衡量当强制施加因果公平性约束时预测器的损失增加程度,并证明了总过量损失(TEL)可以分解为更多本地 PSEL 值的总和。同时,强制施加因果约束通常会减少人群之间的差距。因此,我们引入了一个数量,用于总结公平性和效用之间的权衡,称为因果公平 / 效用比,定义为减少歧视与约束因果路径产生的过量损失之间的比值。最后,由于我们的方法需要具有因果约束的公平预测器,我们介绍了一种新的用于因果约束公平学习的神经方法。
May, 2024
本研究提出了一种计算因果公平性的框架,其中定义了一个旨在涵盖前期因果公平概念的统一定义,并使用约束优化问题对路径特定反事实公平性进行了界定,以解决可辨识性的问题,实验表明了本方法的正确性和有效性。
Oct, 2019
本文使用机器学习系统支持决策制定在医疗保健中的问答涉及使用电子医疗记录中的观察性数据中隐含的偏见,进而进一步发展了组公平性标准,以在个体层面上扩展增益计数事实公正标准,探讨扩增的标准是否可以应用于使用观测性电子健康记录数据的病人长住和死亡的公平模型的开发。通过一个假设因果图的变分自动编码器来执行反事实推理,提供了一种在学习生成模型的背景下,在公平维护与预测性能下降之间权衡的方法。
Jul, 2019
本篇论文提出了一种通用的重构校正方法,可以在满足用户定义的约束条件(如公平性信息)的同时最小化敌手的猜测的更改,并解决了黑盒访问目标模型的情况下反应了培训数据敏感属性的问题。
Sep, 2022
本研究通过反事实思考,提出一种针对 ML 软件中偏见根源的创新对策,并将优化性能和公平性模型相结合,成功提高了 ML 软件的公平性并保持了高竞争力性能
Feb, 2023
本文提出了一种新的公平性概念 —— 图形对照公平性,并基于对照数据增强提出了一种学习节点表示的框架,以减少模型在涉及敏感属性的图形数据中的偏见,该框架在合成和真实世界的图形上的实验表明,优于现有的基线图形对照公平性,并且在预测性能方面有可比性。
Jan, 2022
本文提出了一个因果公平性分析的框架,以理解、建模和可能解决决策设置中的公平问题。研究挑战是挖掘潜在的因果机制并将各种公平度量与结构机制和人口单位归因。最后,提出了一个公平的菜谱,以评估不公平对各个人群的影响。
Jul, 2022