性别与公正机器学习有何关系?
本研究通过因果模型的视角考虑了决策系统是否基于性别、种族、宗教等方面会造成歧视的问题,引入了基于因果关系的群体公平的两个定义:FACE 和 FACT,提出了鲁宾 - 尼曼潜在结果框架来鲁棒地估算 FACE 和 FACT,并在合成数据上展示了方法的有效性。同时,作者还在真实数据集上进行了分析,发现 FACT 比 FACE 更微妙,在不同情形下可得出不同结论。
Mar, 2019
本研究评估了性别偏见的 NLP 模型的统计和因果去偏方法,发现这些方法在目标度量上有效减少了偏见,但不一定改善了其他偏见度量的结果。同时,我们展示了统计和因果去偏技术的组合能够减少通过两种类型的度量来衡量的偏见。
Mar, 2024
本文强调通过因果关系的发现步骤,适当地使用因果关系来解决公平性问题的重要性,并且通过使用合成和标准公平性基准数据集的实证分析来证实了即使微小的因果模型差异也可能对公平性 / 歧视的结论产生重大影响。
Jun, 2022
机器学习系统可能基于性别、性别、宗教或种族等敏感特征表现出歧视行为,因此提出了各种公平性概念和量化歧视方法,并发展了构建公平预测器的众多方法。本研究首次从因果角度分析了公平性和准确性之间的紧张关系,提出了路径特定过量损失(PSEL)的概念来衡量当强制施加因果公平性约束时预测器的损失增加程度,并证明了总过量损失(TEL)可以分解为更多本地 PSEL 值的总和。同时,强制施加因果约束通常会减少人群之间的差距。因此,我们引入了一个数量,用于总结公平性和效用之间的权衡,称为因果公平 / 效用比,定义为减少歧视与约束因果路径产生的过量损失之间的比值。最后,由于我们的方法需要具有因果约束的公平预测器,我们介绍了一种新的用于因果约束公平学习的神经方法。
May, 2024
本文提出了一种使用编码器 - 解码器网络开发的人脸图像合成方法,以测量商业计算机视觉分类器的反事实公平性,并报告了在线搜索服务中与职业相关的关键字中出现的偏向性,用以解释模型偏差的来源。
May, 2020
讨论如何使用因果贝叶斯网络和最优输运理论来处理机器学习公平性问题,尤其是在复杂的不公平场景下,提出了一种统一的框架来处理不同的情况和公平标准,并介绍了一种学习公平表示的方法和一种考虑敏感属性使用限制的技术。
Dec, 2020
本文介绍一种基于倾向得分分析的原因型歧视方法,并利用回归树学习新的歧视 / 偏袒模式,验证在两个现实世界的数据集上,它可以加强机器学习透明度并探测训练数据和学习算法中的歧视性偏差。
Aug, 2016
本文介绍了一种使用因果干预公平性范例,通过在数据管理的集成组件中考虑公平性来识别特征以提高预测质量而不添加偏差的方法,提出了一种使用条件独立性检测的方法来确定确保干预公平的特征子集,并通过现实世界的数据集进行了详细的实证评估,证明了方法的有效性和效率。
Jun, 2020