通过节点归因解释图神经网络中的不公正性
本文针对传统图神经网络中存在的公平性问题,提出了一种新的 GNN 框架,使用可学习的去偏函数来消除不同节点间的度数差异所导致的偏差,以解决节点分类问题中存在的偏差。
Feb, 2023
图神经网络(GNNs)在预测属性图中节点标签的关键人类应用中越来越常见。然而,GNNs 聚合邻居节点的特征以提高分类准确性的能力也可能加剧数据中现有的偏见或向保护性人口群体引入新的偏见。因此,必须量化 GNNs 的偏见程度以及减轻其有害效应的程度。为此,我们提出了两种新的与 GNN 无关的干预方法,即 PFR-AX 和 PostProcess,分别通过减少受保护群体和非受保护群体之间的可分性以及基于黑盒策略更新模型预测来最小化人口群体之间的误差率差异。通过对四个数据集进行大量实验,我们通过算法公平准确性权衡的角度来衡量我们方法及三种变体的效果,并与三个先进的 GNN 模型的三种强基准干预进行对比。我们的结果表明,没有一个单一的干预能够提供普遍最佳的权衡,但 PFR-AX 和 PostProcess 提供了细粒度的控制,并在正确预测受保护群体节点的正向结果时提高了模型的置信度。
Aug, 2023
本研究通过理论分析揭示了 Node representation learning 中源自于 nodal features 和 graph structure 的偏见,并提出了针对其固有偏见的公平感知数据增强框架,可广泛用于增强各种基于 GNN 的学习机制的公平性。
Jan, 2022
本研究旨在提供一种使用结构解释方法对图神经网络中的偏置性进行分析的框架,并提取贡献最大、偏置最小的两组边用于提高预测的公正性。经实验证明该框架在真实世界数据集上的可行性和有效性。
Jun, 2022
该论文提出了利用 EDITS 框架通过减少有偏数据来减轻 GNN 模型的偏见,以实现更公平的结果。在新提出的度量指标的引导下,EDITS 可以以模型无关的方式优化输入数据,从而解决针对不同应用场景中不同 GNN 模型的偏差问题,并且不会降低 GNN 模型的性能。
Aug, 2021
通过知识蒸馏的方式,我们提出了一种无需个人信息的人口属性不可知方法 FairGKD 来学习公平的图神经网络 (GNNs),在性能和效益之间取得了平衡,并在多个基准数据集上验证了该方法的有效性。
Nov, 2023
通过对图神经网络的公平性技术进行分类和研究,本文介绍了改善图神经网络公平性的先前工作,包括预处理步骤、训练过程和后处理阶段,同时提出了公平性评价指标的直观分类,并对用于基准测试的图数据集进行了总结,还针对未解决的关键问题和挑战进行了讨论。
Jul, 2023
本文提出用于消除图神经网络中选择偏差的 Debiased Graph Neural Networks 方法,并通过多个实验验证其超越了现有方法,DGNN 是增强现有 GNN 的灵活框架。
Jan, 2022
提出了一种名为 MAPPING 的新型模型无关的去偏框架,用于公平节点分类,其中采用了基于距离协方差 $dCov$ 的公平约束,同时减小了任意维度中的特征和拓扑偏差,并结合对抗去偏以限制属性推断攻击的风险。在不同的 GNN 变体的真实数据集上进行实验,证明了 MAPPING 的有效性和灵活性,结果显示 MAPPING 能够在效用与公平之间取得更好的权衡,并减轻敏感信息泄露的隐私风险。
Jan, 2024
图神经网络(GNNs)在图结构化数据上取得了显著的性能。然而,GNNs 可能从训练数据中继承偏见,并根据敏感属性(如性别和种族)做出具有歧视性的预测。最近,对于 GNNs 的公平性保证引起了越来越多的关注,但是所有这些研究都基于一个假设,即训练和测试数据来自同一个分布,即训练数据和测试数据来自同一张图。分布变化会导致图公平性性能降低吗?分布变化如何影响图公平性学习?从理论角度上来说,这些开放性的问题在很大程度上是未经探索的。为了回答这些问题,我们首先从理论上确定了决定图偏见的因素。随后,我们探索了影响测试图上公平性的因素,其中一个值得注意的因素是训练图和生成图之间某些群体的表示距离。在我们的理论分析的启发下,我们提出了我们的框架 FatraGNN。具体而言,为了保证在未知的测试图上的公平性表现,我们提出了一个图生成器,可以产生具有显著偏见和不同分布的多个图。然后,我们在训练图和生成图之间最小化每个特定群体的表示距离。这使得我们的模型能够在具有显著偏见的生成图上实现高分类和公平性性能,从而有效处理未知的测试图。在真实世界和半合成数据集上的实验证明了我们模型在准确性和公平性方面的有效性。
Jan, 2024