通过敏感信息中和实现图神经网络中的公平性
本文提出了一种名为 FairGNN 的算法,通过利用图结构和有限的敏感信息来消除 GNN 中的偏见,从而实现公平分类。在真实世界数据集上的实验结果表明,FairGNN 在去偏差和保持高准确率方面具有有效性。
Sep, 2020
最近的研究强调了图神经网络(GNN)中的公平性问题,即 GNN 针对被敏感属性(如种族和年龄)分类的特定保护群体产生了歧视性预测。针对这个问题的不同努力取得了显著进展,但往往专门针对特定的敏感属性,因此需要从头开始对模型进行重新训练以满足敏感属性需求的变化,导致高计算成本。为了更深入地了解这个问题,我们从因果建模的视角来考虑图公平性问题,认为敏感属性引起的混淆效应是其根本原因。出于这一观察的动机,我们从不变学习的角度来公式化图公平性问题,旨在学习跨环境的不变表示。因此,我们提出了一个基于不变学习的图公平性框架,名为 FairINV,它能够在单个训练会话中训练公平的 GNN 模型以适应多种敏感属性。具体而言,FairINV 通过将敏感属性进行划分,并消除标签与各种敏感属性之间的虚假相关性来训练公平的 GNN 模型。在几个真实数据集上的实验证明,FairINV 在公平性方面明显优于最先进的方法,突出了其有效性。我们的代码可通过此 https://URL 获得。
Jun, 2024
通过敏感属性解耦来改善图神经网络的公平性,提出了一个名为 FairSAD 的公平 GNN 框架,通过通道屏蔽机制自适应地识别相关敏感属性的组件并消除其相关性,从而最小化敏感属性对 GNN 结果的影响,同时保留与敏感属性相关的任务信息,并在几个真实世界数据集上的实验表明,FairSAD 在公平性和效用性能方面明显优于其他最先进的方法。
May, 2024
通过考虑特征传播和相关性变化等因素来减轻歧视,设计了两种特征蒙版策略;提出 FairVGNN 用于生成功能的公正视图,实验结果证明其在模型效用和公正性之间具有更好的权衡。
Jun, 2022
提出了一种名为 MAPPING 的新型模型无关的去偏框架,用于公平节点分类,其中采用了基于距离协方差 $dCov$ 的公平约束,同时减小了任意维度中的特征和拓扑偏差,并结合对抗去偏以限制属性推断攻击的风险。在不同的 GNN 变体的真实数据集上进行实验,证明了 MAPPING 的有效性和灵活性,结果显示 MAPPING 能够在效用与公平之间取得更好的权衡,并减轻敏感信息泄露的隐私风险。
Jan, 2024
本文主要研究了图卷积神经网络(GCNs)中的公平性问题,以及如何训练公平且准确的 GCNs。研究着重分析了图结构偏差、节点属性偏差和模型参数对 GCNs 中的人口平等性的影响,提出了一个名为 FairSample 的框架来共同解决这些偏差,其中采用了注入边缘和使用增强学习的可学习邻居采样策略来改善图结构和保证模型的公平性和质量,同时还采用了正则化目标来优化公平性。
Jan, 2024
本文提出了一种新颖的隐私保护神经网络特征表示方法,使得学习到的空间中的敏感信息得以削弱,同时保持数据的实用性;该方法不仅保证了用户数据的隐私,而且还提升了算法的公平性和结果的可行性。
Feb, 2019
介绍一种新的针对敏感特征的机器学习公平性框架,通过去除敏感信息和最小化敏感特征的边际贡献来改善模型的公平性。实验结果表明,该模型在公平性指标和预测性能方面均优于相关最先进方法。
Sep, 2019
通过提出一种新的图神经网络架构,即 FMP,该研究旨在通过在模型架构层面实现公平性,解决 GNN 在公平性性能方面相对较差的问题。实验表明,所提出的 FMP 在三个真实世界的数据集上,在公平性和准确性方面优于几种基准方法。
Dec, 2023
本文提出了一种名为 RNF 的新的偏差缓解技术,该技术通过仅调节 DNN 模型的任务特定分类头来实现公平,以减少 DNN 模型的歧视,即使输入具有偏差的表示。借助 RNF,我们有效地减少了任务特定性能中的歧视。
Jun, 2021