公平感知的图神经网络:一份调查
在图学习的背景下,我们提出了一个名为 Fairness for Group and Individual (FairGI) 的新概念,该概念考虑了组公平性和组内个体公平性,并通过个体之间的相似度矩阵实现了组内个体公平性,同时利用对抗学习来解决组公平性,包括平等机会和统计平衡。实验结果表明,我们的方法在组公平性、组内个体公平性和总体个体公平性方面均优于其他最先进的模型,并且在预测准确性上保持可比较的性能。
Apr, 2024
通过提出一种新的图神经网络架构,即 FMP,该研究旨在通过在模型架构层面实现公平性,解决 GNN 在公平性性能方面相对较差的问题。实验表明,所提出的 FMP 在三个真实世界的数据集上,在公平性和准确性方面优于几种基准方法。
Dec, 2023
对公平性感知的图神经网络进行了对抗攻击研究,提出了 G-FairAttack 攻击框架,可有效地破坏不同类型的图神经网络的公正性而保持攻击不被察觉,以此揭示了公平性感知的图神经网络潜在的漏洞,并引导进一步研究图神经网络在公平性方面的鲁棒性。
Oct, 2023
本文针对传统图神经网络中存在的公平性问题,提出了一种新的 GNN 框架,使用可学习的去偏函数来消除不同节点间的度数差异所导致的偏差,以解决节点分类问题中存在的偏差。
Feb, 2023
本文提出了 GFairHint 方法,通过辅助链接预测任务学习公平表示,并将表示与原始 GNN 中学习的节点嵌入拼接出 “公平提示”,从而实现在各种 GNN 模型上促进公正性的评估,产生相当的优质结果,而且比之前的最新方法具有更少的计算成本。
May, 2023
本文对图神经网络在隐私、鲁棒性、公平性和可解释性等计算方面进行了全面的调查,为不同方面的值得信任的 GNN 模型提供了发展框架和方法论。
Apr, 2022
本研究通过理论分析揭示了 Node representation learning 中源自于 nodal features 和 graph structure 的偏见,并提出了针对其固有偏见的公平感知数据增强框架,可广泛用于增强各种基于 GNN 的学习机制的公平性。
Jan, 2022
图神经网络(GNNs)在图结构化数据上取得了显著的性能。然而,GNNs 可能从训练数据中继承偏见,并根据敏感属性(如性别和种族)做出具有歧视性的预测。最近,对于 GNNs 的公平性保证引起了越来越多的关注,但是所有这些研究都基于一个假设,即训练和测试数据来自同一个分布,即训练数据和测试数据来自同一张图。分布变化会导致图公平性性能降低吗?分布变化如何影响图公平性学习?从理论角度上来说,这些开放性的问题在很大程度上是未经探索的。为了回答这些问题,我们首先从理论上确定了决定图偏见的因素。随后,我们探索了影响测试图上公平性的因素,其中一个值得注意的因素是训练图和生成图之间某些群体的表示距离。在我们的理论分析的启发下,我们提出了我们的框架 FatraGNN。具体而言,为了保证在未知的测试图上的公平性表现,我们提出了一个图生成器,可以产生具有显著偏见和不同分布的多个图。然后,我们在训练图和生成图之间最小化每个特定群体的表示距离。这使得我们的模型能够在具有显著偏见的生成图上实现高分类和公平性性能,从而有效处理未知的测试图。在真实世界和半合成数据集上的实验证明了我们模型在准确性和公平性方面的有效性。
Jan, 2024
本研究提出了一种基于因果理论的框架,即 CAF,用于解决图学习中的公平性问题,通过选择训练数据中的反事实因素来学习公平的节点表示,以避免非现实反事实因素,并在合成和真实数据集上进行了广泛的实验验证其有效性。
Jul, 2023
我们提出了一种用于训练关注公平性的图神经网络的新模型,该模型通过整合监督对比损失和环境损失来提高准确性和公平性,实验证明该模型在三个真实数据集上优于其他现有的基于图的学习方法以及之前的模型。
Apr, 2024