朝着社交网络中公平的图表示学习
本研究通过理论分析揭示了Node representation learning中源自于nodal features和graph structure的偏见,并提出了针对其固有偏见的公平感知数据增强框架,可广泛用于增强各种基于GNN的学习机制的公平性。
Jan, 2022
本文研究了节点分类的任务,并建立了群体公平性(以统计平衡和平等机会方式衡量)与局部同配性之间的联系,即链接节点具有相似属性的趋势,在社交网络中,这种同配性通常是由于同质性引起的,而同质性可以迫使个人进入共享敏感属性的社区;通过合成图,我们研究了本地同质性和公平预测之间的相互作用,发现并非所有节点邻域在这方面都是平等的。本文还研究了是否可以将不公平问题与应用GNN模型的设计相关联,我们发现采用能够处理非同配组标签的异质性GNN设计可以在真实和合成数据集中将局部异质性邻域的群体公平性提高高达25%,优于同质性设计。
Jul, 2022
本文提出了GFairHint方法,通过辅助链接预测任务学习公平表示,并将表示与原始GNN中学习的节点嵌入拼接出“公平提示”,从而实现在各种GNN模型上促进公正性的评估,产生相当的优质结果,而且比之前的最新方法具有更少的计算成本。
May, 2023
通过对图神经网络的公平性技术进行分类和研究,本文介绍了改善图神经网络公平性的先前工作,包括预处理步骤、训练过程和后处理阶段,同时提出了公平性评价指标的直观分类,并对用于基准测试的图数据集进行了总结,还针对未解决的关键问题和挑战进行了讨论。
Jul, 2023
本研究提出了一种基于因果理论的框架,即CAF,用于解决图学习中的公平性问题,通过选择训练数据中的反事实因素来学习公平的节点表示,以避免非现实反事实因素,并在合成和真实数据集上进行了广泛的实验验证其有效性。
Jul, 2023
通过提出一种新的图神经网络架构,即FMP,该研究旨在通过在模型架构层面实现公平性,解决GNN在公平性性能方面相对较差的问题。实验表明,所提出的FMP在三个真实世界的数据集上,在公平性和准确性方面优于几种基准方法。
Dec, 2023
在图学习的背景下,我们提出了一个名为Fairness for Group and Individual (FairGI)的新概念,该概念考虑了组公平性和组内个体公平性,并通过个体之间的相似度矩阵实现了组内个体公平性,同时利用对抗学习来解决组公平性,包括平等机会和统计平衡。实验结果表明,我们的方法在组公平性、组内个体公平性和总体个体公平性方面均优于其他最先进的模型,并且在预测准确性上保持可比较的性能。
Apr, 2024
最近的研究强调了图神经网络(GNN)中的公平性问题,即GNN针对被敏感属性(如种族和年龄)分类的特定保护群体产生了歧视性预测。针对这个问题的不同努力取得了显著进展,但往往专门针对特定的敏感属性,因此需要从头开始对模型进行重新训练以满足敏感属性需求的变化,导致高计算成本。为了更深入地了解这个问题,我们从因果建模的视角来考虑图公平性问题,认为敏感属性引起的混淆效应是其根本原因。出于这一观察的动机,我们从不变学习的角度来公式化图公平性问题,旨在学习跨环境的不变表示。因此,我们提出了一个基于不变学习的图公平性框架,名为FairINV,它能够在单个训练会话中训练公平的GNN模型以适应多种敏感属性。具体而言,FairINV通过将敏感属性进行划分,并消除标签与各种敏感属性之间的虚假相关性来训练公平的GNN模型。在几个真实数据集上的实验证明,FairINV在公平性方面明显优于最先进的方法,突出了其有效性。我们的代码可通过此https://URL获得。
Jun, 2024
通过对Graph Neural Networks的不公平性进行再平衡,本文提出了一种名为FairGB的Fair Graph Neural Network方法,通过counterfactual node mixup和contribution alignment loss两个模块的结合,实现了对GNN的公平性和效用指标的改进。
Jul, 2024