WWWJan, 2024

分布变化下的图公平学习

TL;DR图神经网络(GNNs)在图结构化数据上取得了显著的性能。然而,GNNs 可能从训练数据中继承偏见,并根据敏感属性(如性别和种族)做出具有歧视性的预测。最近,对于 GNNs 的公平性保证引起了越来越多的关注,但是所有这些研究都基于一个假设,即训练和测试数据来自同一个分布,即训练数据和测试数据来自同一张图。分布变化会导致图公平性性能降低吗?分布变化如何影响图公平性学习?从理论角度上来说,这些开放性的问题在很大程度上是未经探索的。为了回答这些问题,我们首先从理论上确定了决定图偏见的因素。随后,我们探索了影响测试图上公平性的因素,其中一个值得注意的因素是训练图和生成图之间某些群体的表示距离。在我们的理论分析的启发下,我们提出了我们的框架 FatraGNN。具体而言,为了保证在未知的测试图上的公平性表现,我们提出了一个图生成器,可以产生具有显著偏见和不同分布的多个图。然后,我们在训练图和生成图之间最小化每个特定群体的表示距离。这使得我们的模型能够在具有显著偏见的生成图上实现高分类和公平性性能,从而有效处理未知的测试图。在真实世界和半合成数据集上的实验证明了我们模型在准确性和公平性方面的有效性。