本文提出了一种新的公平性概念 —— 图形对照公平性,并基于对照数据增强提出了一种学习节点表示的框架,以减少模型在涉及敏感属性的图形数据中的偏见,该框架在合成和真实世界的图形上的实验表明,优于现有的基线图形对照公平性,并且在预测性能方面有可比性。
Jan, 2022
本文提出了一种新的框架 CLAIRE,通过对反事实数据增广和不变化惩罚的表征学习框架有效地减轻了敏感属性的偏差,并在合成和真实数据集上的实验验证了 CLAIRE 在反事实公平性和预测性能方面的优越性。
Jul, 2023
本文提出了一个利用因果推断工具来建立公正性模型的框架,以避免机器学习在保险、贷款、雇佣和预测执法等领域的不公正决策,避免造成基于不公正数据的歧视性做法,以法学院成功的公平预测为实际问题进行了实证研究。
Mar, 2017
本文使用机器学习系统支持决策制定在医疗保健中的问答涉及使用电子医疗记录中的观察性数据中隐含的偏见,进而进一步发展了组公平性标准,以在个体层面上扩展增益计数事实公正标准,探讨扩增的标准是否可以应用于使用观测性电子健康记录数据的病人长住和死亡的公平模型的开发。通过一个假设因果图的变分自动编码器来执行反事实推理,提供了一种在学习生成模型的背景下,在公平维护与预测性能下降之间权衡的方法。
Jul, 2019
通过开发一种名为生成对抗平衡网络(GCFN)的新颖深度神经网络,本文研究了在反事实公平性下进行预测的方法,并通过一种新颖的反事实调节器正则化方式,借助量身定制的生成对抗网络直接学习敏感属性后代的反事实分布,较好地保证了反事实公平性的概念。该方法解决了现有基于推断潜在变量的基线方法存在的问题,并在各种实验证明,其性能达到了最先进水平。在自由刑滞后预测的现实案例研究中,我们进一步证明了我们的方法在实践中能够作出有意义的预测。
Oct, 2023
我们利用因果上下文桥接了反事实公平、鲁棒预测和群体公平之间的差距,展示了它们之间的等价关系,并通过测量相对简单的群体公平指标来测试反事实公平。
本研究提出了一种基于因果理论的框架,即 CAF,用于解决图学习中的公平性问题,通过选择训练数据中的反事实因素来学习公平的节点表示,以避免非现实反事实因素,并在合成和真实数据集上进行了广泛的实验验证其有效性。
本文指出过度使用对社会类别(如种族或性别)进行因果推断所需的反事实可能导致一些困扰,并可能导致错误结论的结果,因此应该谨慎使用因果反事实,特别是在涉及高风险领域的算法公平和社交解释方面。
Feb, 2021
本研究通过反事实思考,提出一种针对 ML 软件中偏见根源的创新对策,并将优化性能和公平性模型相结合,成功提高了 ML 软件的公平性并保持了高竞争力性能
Feb, 2023
本研究提出一种利用反事实推理揭示机器学习和去偏见模型不公平行为的方法,在三个不同数据集上获得验证。