通过图增强促进链接预测的公平性
本研究探讨如何通过新增边缘来促进基于图神经网络的公平性,并提出了两种无需预训练的算法:暴力方法和连续逼近方法FairEdit。结果表明,FairEdit在多个数据集和GNN方法上表现优异,同时能够提高公平性,在多个领域和模型中有着应用前景。
Jan, 2022
本研究通过理论分析揭示了Node representation learning中源自于nodal features和graph structure的偏见,并提出了针对其固有偏见的公平感知数据增强框架,可广泛用于增强各种基于GNN的学习机制的公平性。
Jan, 2022
本文针对传统图神经网络中存在的公平性问题,提出了一种新的GNN框架,使用可学习的去偏函数来消除不同节点间的度数差异所导致的偏差,以解决节点分类问题中存在的偏差。
Feb, 2023
本文提出了GFairHint方法,通过辅助链接预测任务学习公平表示,并将表示与原始GNN中学习的节点嵌入拼接出“公平提示”,从而实现在各种GNN模型上促进公正性的评估,产生相当的优质结果,而且比之前的最新方法具有更少的计算成本。
May, 2023
通过对图神经网络的公平性技术进行分类和研究,本文介绍了改善图神经网络公平性的先前工作,包括预处理步骤、训练过程和后处理阶段,同时提出了公平性评价指标的直观分类,并对用于基准测试的图数据集进行了总结,还针对未解决的关键问题和挑战进行了讨论。
Jul, 2023
通过提出一种新的图神经网络架构,即FMP,该研究旨在通过在模型架构层面实现公平性,解决GNN在公平性性能方面相对较差的问题。实验表明,所提出的FMP在三个真实世界的数据集上,在公平性和准确性方面优于几种基准方法。
Dec, 2023
机器学习与图形处理近年来受到越来越多的关注,因其能够分析和学习关键的互连系统内的复杂关系。然而,这些算法中使用的有偏图结构带来的不平等影响引发了在实际决策系统中部署的重要关注。此外,尽管合成图形生成对于隐私和可扩展性考虑至关重要,但生成式学习算法对结构偏差的影响尚未得到研究。基于这一动机,本研究侧重于实际和合成图形的结构偏差分析和缓解。具体而言,我们首先理论分析导致对二元关系预测不平等的结构偏差的来源。为了减轻已确定的偏见因素,我们设计了一种新颖的公平正则化器,具有多种用途。针对本研究揭示的图形生成模型中的偏见放大问题,我们进一步提出了一个公平图形生成框架FairWire,通过在生成模型中利用我们的公平正则化器设计。对真实世界网络的实验结果验证了本文提出的工具在实际和合成图形的结构偏差缓解中的有效性。
Feb, 2024
我们提出了一种用于训练关注公平性的图神经网络的新模型,该模型通过整合监督对比损失和环境损失来提高准确性和公平性,实验证明该模型在三个真实数据集上优于其他现有的基于图的学习方法以及之前的模型。
Apr, 2024