利用神经网络指导的因果公平数据集重采样
通过提出一种新颖的自适应重新加权方法,该论文旨在消除训练和测试数据之间分布变化对模型普适能力的影响,进而改善算法的公平性和泛化性能。实验证明了该方法在准确性和公平性度量方面的普适性,并突出了对语言和视觉模型公平性改善的性能提升。
Sep, 2023
本文提出了一种名为 FairReprogram 的通用公平学习范式,旨在消除机器学习模型中存在的人口统计偏差问题,该方法通过在输入数据中追加多组扰动向量,使得机器学习模型无法准确获取输入数据的真实信息从而达到公平的目标。实验证明此方法显著有效,并且效果比现有的基于重新训练权值的方法要好。
Sep, 2022
讨论如何使用因果贝叶斯网络和最优输运理论来处理机器学习公平性问题,尤其是在复杂的不公平场景下,提出了一种统一的框架来处理不同的情况和公平标准,并介绍了一种学习公平表示的方法和一种考虑敏感属性使用限制的技术。
Dec, 2020
本文介绍了一种使用因果干预公平性范例,通过在数据管理的集成组件中考虑公平性来识别特征以提高预测质量而不添加偏差的方法,提出了一种使用条件独立性检测的方法来确定确保干预公平的特征子集,并通过现实世界的数据集进行了详细的实证评估,证明了方法的有效性和效率。
Jun, 2020
机器学习算法已被广泛应用在各种领域,然而由此带来的公平性问题在高风险案例(如人脸识别和医学影像分析)中引起了极大关注。本文针对深度神经网络中公平性的限制条件及其行为矫正方法的有效性进行了研究,实验结果表明,在特定公平度量下,大型模型会对公平的过度拟合而产生一系列意外和不良后果。
Feb, 2021
通过对图神经网络的公平性技术进行分类和研究,本文介绍了改善图神经网络公平性的先前工作,包括预处理步骤、训练过程和后处理阶段,同时提出了公平性评价指标的直观分类,并对用于基准测试的图数据集进行了总结,还针对未解决的关键问题和挑战进行了讨论。
Jul, 2023
这篇研究论文系统地研究了对传统机器学习模型中重新加权样本的有效性,通过对 Adult Income 和 COMPUS 数据集上的五个模型进行二分类,并使用五个公平度量评估预测结果,揭示了实现传统机器学习模型公正性的重新加权样本的复杂性,以及偏倚动态的复杂性。
Dec, 2023
本研究提出了一种基于因果理论的框架,即 CAF,用于解决图学习中的公平性问题,通过选择训练数据中的反事实因素来学习公平的节点表示,以避免非现实反事实因素,并在合成和真实数据集上进行了广泛的实验验证其有效性。
Jul, 2023
本文探讨了基于因果关系的公平性概念及其在实际场景中的适用性,并针对采用观察数据估计因果量的不同方法,包括可辨识性和潜在结果框架进行了综合报告,提供出一个指南来帮助选择适合特定实际场景的公平性概念,并根据 Pearl 的因果推理难度对公平性概念进行了排名。
Oct, 2020