图神经网络公平性的对抗攻击
通过对图神经网络的公平性技术进行分类和研究,本文介绍了改善图神经网络公平性的先前工作,包括预处理步骤、训练过程和后处理阶段,同时提出了公平性评价指标的直观分类,并对用于基准测试的图数据集进行了总结,还针对未解决的关键问题和挑战进行了讨论。
Jul, 2023
尽管图神经网络(GNNs)在与图相关的任务中展示出了显着的能力,但最近的研究揭示了 GNNs 在面对恶意对抗攻击时的公平性漏洞。然而,所有现有的公平性攻击都需要操纵现有节点之间的连接,在现实中可能是被禁止的。为此,我们提出了一种基于节点注入的公平性攻击(NIFA),在更现实的情况下探索了 GNN 公平性的漏洞。 NIFA 首先为节点注入操作设计了两个有见地的原则,即不确定性最大化原则和同质性增加原则,然后优化注入节点的特征矩阵,以进一步确保公平性攻击的有效性。对三个真实世界数据集的综合实验一致表明,NIFA 可以通过仅注入 1%的节点显着破坏主流 GNNs 的公平性,甚至包括关注公平性的 GNNs。我们真诚希望我们的工作能引起研究人员对 GNN 公平性漏洞的更多关注,并鼓励相应防御机制的开发。
Jun, 2024
该研究论文介绍 Deep Neural Networks 和 Graph Neural Networks 对抗攻击的脆弱性,提出了相关攻击和防御的借鉴,以及一个算法库用于研究对抗攻击和防御。
Mar, 2020
本文提出了 GFairHint 方法,通过辅助链接预测任务学习公平表示,并将表示与原始 GNN 中学习的节点嵌入拼接出 “公平提示”,从而实现在各种 GNN 模型上促进公正性的评估,产生相当的优质结果,而且比之前的最新方法具有更少的计算成本。
May, 2023
本文探讨了图神经网络在面临敌对攻击时的脆弱性,并提出了一种名为 Pro-GNN 的框架,以基于真实世界图形的内在属性来联合学习结构性图形和稳健性 GNN 模型以应对此问题。通过实验表明,Pro-GNN 在防御敌对攻击方面表现优异。
May, 2020
通过提出一种新的图神经网络架构,即 FMP,该研究旨在通过在模型架构层面实现公平性,解决 GNN 在公平性性能方面相对较差的问题。实验表明,所提出的 FMP 在三个真实世界的数据集上,在公平性和准确性方面优于几种基准方法。
Dec, 2023
使用 ELEGANT 框架,我们对 Graph Neural Networks (GNNs) 的公平性水平进行了理论认证分析,该框架可以有效抵御恶意攻击者对输入图数据的扰动,并在不重新训练 GNNs 的情况下提供可信度保证。
Nov, 2023
在图学习的背景下,我们提出了一个名为 Fairness for Group and Individual (FairGI) 的新概念,该概念考虑了组公平性和组内个体公平性,并通过个体之间的相似度矩阵实现了组内个体公平性,同时利用对抗学习来解决组公平性,包括平等机会和统计平衡。实验结果表明,我们的方法在组公平性、组内个体公平性和总体个体公平性方面均优于其他最先进的模型,并且在预测准确性上保持可比较的性能。
Apr, 2024
最近的研究强调了图神经网络(GNN)中的公平性问题,即 GNN 针对被敏感属性(如种族和年龄)分类的特定保护群体产生了歧视性预测。针对这个问题的不同努力取得了显著进展,但往往专门针对特定的敏感属性,因此需要从头开始对模型进行重新训练以满足敏感属性需求的变化,导致高计算成本。为了更深入地了解这个问题,我们从因果建模的视角来考虑图公平性问题,认为敏感属性引起的混淆效应是其根本原因。出于这一观察的动机,我们从不变学习的角度来公式化图公平性问题,旨在学习跨环境的不变表示。因此,我们提出了一个基于不变学习的图公平性框架,名为 FairINV,它能够在单个训练会话中训练公平的 GNN 模型以适应多种敏感属性。具体而言,FairINV 通过将敏感属性进行划分,并消除标签与各种敏感属性之间的虚假相关性来训练公平的 GNN 模型。在几个真实数据集上的实验证明,FairINV 在公平性方面明显优于最先进的方法,突出了其有效性。我们的代码可通过此 https://URL 获得。
Jun, 2024
本文提出了一种简化梯度攻击的方法,可以通过多阶段攻击框架在只需较小子图的情况下使图神经网络误分类。此外,作者还提出了度同配改变这一实用指标来衡量对图数据的对抗攻击的影响。
Sep, 2020