有限敏感信息泄露下为公平节点分类的去偏置图神经网络映射
本文提出了一种名为 FairGNN 的算法,通过利用图结构和有限的敏感信息来消除 GNN 中的偏见,从而实现公平分类。在真实世界数据集上的实验结果表明,FairGNN 在去偏差和保持高准确率方面具有有效性。
Sep, 2020
通过考虑特征传播和相关性变化等因素来减轻歧视,设计了两种特征蒙版策略;提出 FairVGNN 用于生成功能的公正视图,实验结果证明其在模型效用和公正性之间具有更好的权衡。
Jun, 2022
通过提出一种新的图神经网络架构,即 FMP,该研究旨在通过在模型架构层面实现公平性,解决 GNN 在公平性性能方面相对较差的问题。实验表明,所提出的 FMP 在三个真实世界的数据集上,在公平性和准确性方面优于几种基准方法。
Dec, 2023
最近的研究强调了图神经网络(GNN)中的公平性问题,即 GNN 针对被敏感属性(如种族和年龄)分类的特定保护群体产生了歧视性预测。针对这个问题的不同努力取得了显著进展,但往往专门针对特定的敏感属性,因此需要从头开始对模型进行重新训练以满足敏感属性需求的变化,导致高计算成本。为了更深入地了解这个问题,我们从因果建模的视角来考虑图公平性问题,认为敏感属性引起的混淆效应是其根本原因。出于这一观察的动机,我们从不变学习的角度来公式化图公平性问题,旨在学习跨环境的不变表示。因此,我们提出了一个基于不变学习的图公平性框架,名为 FairINV,它能够在单个训练会话中训练公平的 GNN 模型以适应多种敏感属性。具体而言,FairINV 通过将敏感属性进行划分,并消除标签与各种敏感属性之间的虚假相关性来训练公平的 GNN 模型。在几个真实数据集上的实验证明,FairINV 在公平性方面明显优于最先进的方法,突出了其有效性。我们的代码可通过此 https://URL 获得。
Jun, 2024
该论文提出了利用 EDITS 框架通过减少有偏数据来减轻 GNN 模型的偏见,以实现更公平的结果。在新提出的度量指标的引导下,EDITS 可以以模型无关的方式优化输入数据,从而解决针对不同应用场景中不同 GNN 模型的偏差问题,并且不会降低 GNN 模型的性能。
Aug, 2021
本文针对传统图神经网络中存在的公平性问题,提出了一种新的 GNN 框架,使用可学习的去偏函数来消除不同节点间的度数差异所导致的偏差,以解决节点分类问题中存在的偏差。
Feb, 2023
本文针对图神经网络中信息传递中的不公平性问题,提出了一种名为 BeMap 的方法,该方法通过平衡感知采样策略来平衡不同人口群体之间的 1-hop 邻居节点数,从而解决信息传递过程中的偏见放大问题,实验证明该方法有效降低偏见同时保持分类准确性。
Jun, 2023
通过对图神经网络的公平性技术进行分类和研究,本文介绍了改善图神经网络公平性的先前工作,包括预处理步骤、训练过程和后处理阶段,同时提出了公平性评价指标的直观分类,并对用于基准测试的图数据集进行了总结,还针对未解决的关键问题和挑战进行了讨论。
Jul, 2023
图神经网络(GNNs)在预测属性图中节点标签的关键人类应用中越来越常见。然而,GNNs 聚合邻居节点的特征以提高分类准确性的能力也可能加剧数据中现有的偏见或向保护性人口群体引入新的偏见。因此,必须量化 GNNs 的偏见程度以及减轻其有害效应的程度。为此,我们提出了两种新的与 GNN 无关的干预方法,即 PFR-AX 和 PostProcess,分别通过减少受保护群体和非受保护群体之间的可分性以及基于黑盒策略更新模型预测来最小化人口群体之间的误差率差异。通过对四个数据集进行大量实验,我们通过算法公平准确性权衡的角度来衡量我们方法及三种变体的效果,并与三个先进的 GNN 模型的三种强基准干预进行对比。我们的结果表明,没有一个单一的干预能够提供普遍最佳的权衡,但 PFR-AX 和 PostProcess 提供了细粒度的控制,并在正确预测受保护群体节点的正向结果时提高了模型的置信度。
Aug, 2023