本文探讨了图神经网络在面临敌对攻击时的脆弱性,并提出了一种名为 Pro-GNN 的框架,以基于真实世界图形的内在属性来联合学习结构性图形和稳健性 GNN 模型以应对此问题。通过实验表明,Pro-GNN 在防御敌对攻击方面表现优异。
May, 2020
本文提出了针对图数据的攻击和防御技术,其中引入了集成梯度来解决离散特征的问题,并且发现对于攻击后的图形,它的统计特征与正常图形不同,并提出一种检查图像并找到潜在的对抗扰动的方法。经过若干数据集的测试显示本文方法的有效性。
Mar, 2019
本研究提出了一种基于 Graph Universal Adversarial Defense (GUARD) 的简单而有效的方法,通过生成一个通用防御补丁来保护每个节点免受攻击,并在多个对抗攻击中显著提高了已建立的 GCN 的鲁棒性,并且该方法超越了目前的最先进的防御方法。
Apr, 2022
该研究探讨了基于中频信号滤波器的图卷积网络 Mid-GCN,通过在六种基准图数据上的实验,验证了其在对抗攻击下节点分类准确性方面的有效性。
Feb, 2023
通过挑战经典的图形拉普拉斯算子,设计出一种可以证明在频谱域内具有鲁棒性的新卷积算子,它被纳入 GCN 体系结构中以改善其表达能力和可解释性,同时通过将原始图形扩展到一系列图形,提出了一种鲁棒的训练范式,以鼓励跨越具有一系列空间和频谱特征的图形的可转移性,这些方法在广泛的实验中得到证明,可以同时提高在良性和对抗性情况下的性能。
May, 2019
本文提出了基于梯度的攻击方法,以解决离散图数据的难点,并基于此提出了第一个面向图神经网络的基于优化的对抗训练,可以提高不同梯度和贪心攻击方法的鲁棒性,同时不牺牲原始图的分类准确性。
Jun, 2019
本研究探索了图卷积网络的鲁棒性。我们提出了一种新的 “假节点攻击” 来攻击 GCN,通过添加恶意伪造节点相对于以往攻击更加现实。我们使用了贪婪算法来产生具有误导性质的恶意节点,并介绍了一种分类器来将恶意节点与真实节点区分开来,我们的攻击使得 GCN 的准确性下降到 0.03,针对一组 100 个节点的情况下,我们的有目标攻击成功率高达 78%,对于单个目标节点平均攻击成功率为 90%。
Oct, 2018
在这项工作中,我们从理论上定义了属性图背景下的预期稳健性概念,并将其与图表示学习文献中的敌对鲁棒性概念相关联。我们的定义使我们能够得出图卷积网络和图同构网络在节点特征攻击下预期稳健性的上界,并基于这些发现将图卷积正交稳健网络(Graph Convolutional Orthonormal Robust Networks)作为对敌对攻击更稳健的变体提出,将 GNN 的预期稳健性与其权重矩阵的正交性联系起来。我们进一步引入了一种概率方法来估计预期稳健性,这使我们能够评估 GCORN 在几个真实世界数据集上的有效性。实验结果表明,GCORN 优于现有的防御方法。
Apr, 2024
图神经网络(GNN)是处理图结构数据的主要方法,但存在对小的对抗性扰动脆弱性的问题。本文介绍了一种新的防御方法 NoisyGNNs,它通过在模型架构中引入噪声来提高 GNN 的鲁棒性。通过理论分析和实证评估,揭示了噪声注入和 GNN 鲁棒性增强之间的关联,并展示了 NoisyGNN 在节点分类任务上的卓越性能。这种方法是模型无关的,可与不同的 GNN 架构集成,与现有的防御技术结合使用可以进一步提高对抗性防御效果。
Feb, 2024
该研究提出并应用了一种新的基于贝叶斯自监督学习的模型 (GraphSS),能有效抵御动态图中的对抗攻击以及恢复节点分类器的预测结果。
Mar, 2022