公平稳定的图表示学习统一框架
本研究提出了一种基于因果理论的框架,即 CAF,用于解决图学习中的公平性问题,通过选择训练数据中的反事实因素来学习公平的节点表示,以避免非现实反事实因素,并在合成和真实数据集上进行了广泛的实验验证其有效性。
Jul, 2023
我们提出了一种用于训练关注公平性的图神经网络的新模型,该模型通过整合监督对比损失和环境损失来提高准确性和公平性,实验证明该模型在三个真实数据集上优于其他现有的基于图的学习方法以及之前的模型。
Apr, 2024
通过对图神经网络的公平性技术进行分类和研究,本文介绍了改善图神经网络公平性的先前工作,包括预处理步骤、训练过程和后处理阶段,同时提出了公平性评价指标的直观分类,并对用于基准测试的图数据集进行了总结,还针对未解决的关键问题和挑战进行了讨论。
Jul, 2023
本文提出了一种名为 STABLE 的无监督流水线来优化图形结构,以增强图神经网络算法的鲁棒性,该方法采用边度量学习来抵御对抗攻击,并设计了一个高级 GCN 来进一步加强其鲁棒性,证明其在四种实际图形基准测试中具有优越的性能表现。
Jun, 2022
本文提出了 GFairHint 方法,通过辅助链接预测任务学习公平表示,并将表示与原始 GNN 中学习的节点嵌入拼接出 “公平提示”,从而实现在各种 GNN 模型上促进公正性的评估,产生相当的优质结果,而且比之前的最新方法具有更少的计算成本。
May, 2023
在图学习的背景下,我们提出了一个名为 Fairness for Group and Individual (FairGI) 的新概念,该概念考虑了组公平性和组内个体公平性,并通过个体之间的相似度矩阵实现了组内个体公平性,同时利用对抗学习来解决组公平性,包括平等机会和统计平衡。实验结果表明,我们的方法在组公平性、组内个体公平性和总体个体公平性方面均优于其他最先进的模型,并且在预测准确性上保持可比较的性能。
Apr, 2024
通过研究 GNN Lipschitz 界限对非欧几里德数据的作用,调查 GNN 模型输出稳定性,并通过对公平训练中学习到的偏见进行实验验证 Lipschitz 边界的有效性,最终展示理论 Lipschitz 边界在 GNN 训练中如何有效平衡准确性和公平性。
Sep, 2023
本文提出了一种新的公平性概念 —— 图形对照公平性,并基于对照数据增强提出了一种学习节点表示的框架,以减少模型在涉及敏感属性的图形数据中的偏见,该框架在合成和真实世界的图形上的实验表明,优于现有的基线图形对照公平性,并且在预测性能方面有可比性。
Jan, 2022
图神经网络(GNNs)在图结构化数据上取得了显著的性能。然而,GNNs 可能从训练数据中继承偏见,并根据敏感属性(如性别和种族)做出具有歧视性的预测。最近,对于 GNNs 的公平性保证引起了越来越多的关注,但是所有这些研究都基于一个假设,即训练和测试数据来自同一个分布,即训练数据和测试数据来自同一张图。分布变化会导致图公平性性能降低吗?分布变化如何影响图公平性学习?从理论角度上来说,这些开放性的问题在很大程度上是未经探索的。为了回答这些问题,我们首先从理论上确定了决定图偏见的因素。随后,我们探索了影响测试图上公平性的因素,其中一个值得注意的因素是训练图和生成图之间某些群体的表示距离。在我们的理论分析的启发下,我们提出了我们的框架 FatraGNN。具体而言,为了保证在未知的测试图上的公平性表现,我们提出了一个图生成器,可以产生具有显著偏见和不同分布的多个图。然后,我们在训练图和生成图之间最小化每个特定群体的表示距离。这使得我们的模型能够在具有显著偏见的生成图上实现高分类和公平性性能,从而有效处理未知的测试图。在真实世界和半合成数据集上的实验证明了我们模型在准确性和公平性方面的有效性。
Jan, 2024
本文针对传统图神经网络中存在的公平性问题,提出了一种新的 GNN 框架,使用可学习的去偏函数来消除不同节点间的度数差异所导致的偏差,以解决节点分类问题中存在的偏差。
Feb, 2023