公平感知的图神经网络:一份调查
本研究探讨如何通过新增边缘来促进基于图神经网络的公平性,并提出了两种无需预训练的算法:暴力方法和连续逼近方法FairEdit。结果表明,FairEdit在多个数据集和GNN方法上表现优异,同时能够提高公平性,在多个领域和模型中有着应用前景。
Jan, 2022
本文提出了GFairHint方法,通过辅助链接预测任务学习公平表示,并将表示与原始GNN中学习的节点嵌入拼接出“公平提示”,从而实现在各种GNN模型上促进公正性的评估,产生相当的优质结果,而且比之前的最新方法具有更少的计算成本。
May, 2023
本研究提出了一种基于因果理论的框架,即CAF,用于解决图学习中的公平性问题,通过选择训练数据中的反事实因素来学习公平的节点表示,以避免非现实反事实因素,并在合成和真实数据集上进行了广泛的实验验证其有效性。
Jul, 2023
通过提出一种新的图神经网络架构,即FMP,该研究旨在通过在模型架构层面实现公平性,解决GNN在公平性性能方面相对较差的问题。实验表明,所提出的FMP在三个真实世界的数据集上,在公平性和准确性方面优于几种基准方法。
Dec, 2023
我们提出了GRAPHGINI方法,通过GNN框架中可学习的注意分数来实现个体公平,并通过基于启发式的最大纳什社会福利约束保证最大可能的群体公平,该方法在实验中显示出在维持效用和群体平等的情况下,在个体公平方面相比其他最先进的方法有显著改进。
Feb, 2024
公平图学习方法的评估常常依赖于构造不完善的半合成数据集或次标准的真实世界数据集。本研究针对这些问题,通过开发和引入一系列合成、半合成和真实世界数据集,旨在为公平模型的评估提供有意义的图结构和关键偏见信息。经过对提出的数据集的系统评估,为公平图学习模型建立了一种统一的评估方法。我们在数据集上对公平图学习方法进行了广泛的实验,证明了这些方法在性能评估方面的有效性。
Mar, 2024
在图学习的背景下,我们提出了一个名为Fairness for Group and Individual (FairGI)的新概念,该概念考虑了组公平性和组内个体公平性,并通过个体之间的相似度矩阵实现了组内个体公平性,同时利用对抗学习来解决组公平性,包括平等机会和统计平衡。实验结果表明,我们的方法在组公平性、组内个体公平性和总体个体公平性方面均优于其他最先进的模型,并且在预测准确性上保持可比较的性能。
Apr, 2024
通过对Graph Neural Networks的不公平性进行再平衡,本文提出了一种名为FairGB的Fair Graph Neural Network方法,通过counterfactual node mixup和contribution alignment loss两个模块的结合,实现了对GNN的公平性和效用指标的改进。
Jul, 2024
本研究解决了社交网络中图神经网络(GNNs)公平性的问题,指出社交同质性导致的用户表示不公平。提出了一种名为公平意识GNN(EAGNN)的方法,通过引入充分性、独立性和分离性等原则来确保模型预测与敏感属性无关。实验结果表明,EAGNN在公平性指标上达到了最先进的表现,同时保持了预测的有效性。
Oct, 2024