数据中的魔鬼:通过部分知识蒸馏学习公平的图神经网络
本文提出了一种被称为无图知识蒸馏(GFKD)的方法,通过建模多元伯努利分布来学习知识传输的图拓扑结构,并使用梯度估计器来优化该框架,该方法适用于处理不同拓扑结构的非网格数据。经过广泛的实验,GFKD 实现了从 GNN 中蒸馏知识的最先进性能,无需训练数据。
May, 2021
本文提出了一种名为 FairGNN 的算法,通过利用图结构和有限的敏感信息来消除 GNN 中的偏见,从而实现公平分类。在真实世界数据集上的实验结果表明,FairGNN 在去偏差和保持高准确率方面具有有效性。
Sep, 2020
通过对图神经网络的公平性技术进行分类和研究,本文介绍了改善图神经网络公平性的先前工作,包括预处理步骤、训练过程和后处理阶段,同时提出了公平性评价指标的直观分类,并对用于基准测试的图数据集进行了总结,还针对未解决的关键问题和挑战进行了讨论。
Jul, 2023
图神经网络(GNNs)在图结构化数据上取得了显著的性能。然而,GNNs 可能从训练数据中继承偏见,并根据敏感属性(如性别和种族)做出具有歧视性的预测。最近,对于 GNNs 的公平性保证引起了越来越多的关注,但是所有这些研究都基于一个假设,即训练和测试数据来自同一个分布,即训练数据和测试数据来自同一张图。分布变化会导致图公平性性能降低吗?分布变化如何影响图公平性学习?从理论角度上来说,这些开放性的问题在很大程度上是未经探索的。为了回答这些问题,我们首先从理论上确定了决定图偏见的因素。随后,我们探索了影响测试图上公平性的因素,其中一个值得注意的因素是训练图和生成图之间某些群体的表示距离。在我们的理论分析的启发下,我们提出了我们的框架 FatraGNN。具体而言,为了保证在未知的测试图上的公平性表现,我们提出了一个图生成器,可以产生具有显著偏见和不同分布的多个图。然后,我们在训练图和生成图之间最小化每个特定群体的表示距离。这使得我们的模型能够在具有显著偏见的生成图上实现高分类和公平性性能,从而有效处理未知的测试图。在真实世界和半合成数据集上的实验证明了我们模型在准确性和公平性方面的有效性。
Jan, 2024
提出了一种名为 FairMigration 的新型框架,它可以动态迁移人口群体,解决在训练 Fair GNNs 时存在的个人敏感信息偏见问题,该框架分为两个学习阶段,第一个阶段进行个人化自监督学习并动态调整人口群体,第二个阶段在新的人口群体约束和对抗训练下进行的监督学习,实验表明该框架能很好地平衡模型性能和公平性。
Jun, 2023
最近的研究强调了图神经网络(GNN)中的公平性问题,即 GNN 针对被敏感属性(如种族和年龄)分类的特定保护群体产生了歧视性预测。针对这个问题的不同努力取得了显著进展,但往往专门针对特定的敏感属性,因此需要从头开始对模型进行重新训练以满足敏感属性需求的变化,导致高计算成本。为了更深入地了解这个问题,我们从因果建模的视角来考虑图公平性问题,认为敏感属性引起的混淆效应是其根本原因。出于这一观察的动机,我们从不变学习的角度来公式化图公平性问题,旨在学习跨环境的不变表示。因此,我们提出了一个基于不变学习的图公平性框架,名为 FairINV,它能够在单个训练会话中训练公平的 GNN 模型以适应多种敏感属性。具体而言,FairINV 通过将敏感属性进行划分,并消除标签与各种敏感属性之间的虚假相关性来训练公平的 GNN 模型。在几个真实数据集上的实验证明,FairINV 在公平性方面明显优于最先进的方法,突出了其有效性。我们的代码可通过此 https://URL 获得。
Jun, 2024
本文主要研究了图卷积神经网络(GCNs)中的公平性问题,以及如何训练公平且准确的 GCNs。研究着重分析了图结构偏差、节点属性偏差和模型参数对 GCNs 中的人口平等性的影响,提出了一个名为 FairSample 的框架来共同解决这些偏差,其中采用了注入边缘和使用增强学习的可学习邻居采样策略来改善图结构和保证模型的公平性和质量,同时还采用了正则化目标来优化公平性。
Jan, 2024
本文提出了一种新的策略 PDD,它可以衡量 GNN 中表现出的偏见,并开发了一种算法来有效地估计每个训练节点对此偏见的影响力。在真实世界的数据集上进行实验验证了 PDD 的有效性和影响力估计的有效性,并演示了如何使用该框架进行 GNN 去偏见化。
Nov, 2022