本文通过建立节点注入攻击的马尔科夫决策过程模型,提出了一种基于强化学习框架 (GA2C)的节点注入方法,将注入节点结构化地插入原图中。研究结果表明,与现有最先进的方法相比,本文提出的 GA2C 方法具有更高的注入成功率和分类误差率。
Feb, 2022
本文提出了一种简化梯度攻击的方法,可以通过多阶段攻击框架在只需较小子图的情况下使图神经网络误分类。此外,作者还提出了度同配改变这一实用指标来衡量对图数据的对抗攻击的影响。
Sep, 2020
本文提出了基于梯度的攻击方法,以解决离散图数据的难点,并基于此提出了第一个面向图神经网络的基于优化的对抗训练,可以提高不同梯度和贪心攻击方法的鲁棒性,同时不牺牲原始图的分类准确性。
Jun, 2019
本研究针对图神经网络的黑盒节点插入攻击问题,提出了基于强化学习框架的渐进式无梯度节点插入攻击方法,并通过对八个基准数据集的广泛实验表明其在攻击效率和攻击成功率方面均优于现有攻击方法。
Nov, 2022
本文提出了一种针对图神经网络的对抗攻击方法,通过图重连的操作,使用强化学习生成对于目标模型影响较小的扰动,并在真实图数据集上进行实验及分析,证明该方法的有效性。
该研究提出了第一种针对图神经网络的非目标黑盒节点注入攻击方法,通过限制优化过程来实现节点注入攻击,并在三个数据集上评估攻击的性能。
Nov, 2023
该研究证明了图神经网络容易受到对抗性攻击,在此基础上提出了一种多跳聚合的信息传递和正则化方法以增强对抗攻击的隐蔽性和攻击性能。
Aug, 2022
本文探讨了图神经网络在面临敌对攻击时的脆弱性,并提出了一种名为 Pro-GNN 的框架,以基于真实世界图形的内在属性来联合学习结构性图形和稳健性 GNN 模型以应对此问题。通过实验表明,Pro-GNN 在防御敌对攻击方面表现优异。
May, 2020
本研究提出了针对图神经网络的链路窃取攻击,并介绍了三个维度的威胁模型以及八种链路窃取攻击方法。在八个真实数据集上的实验表明,攻击是有效的,并揭示了 GNN 模型输出关于训练图结构的丰富信息,证明了在黑盒条件下,一些私密数据可以被窃取。
本文提出了一种基于子图的背门攻击方法,可以对图神经网络进行攻击。在实验中发现,该攻击在对干净测试图的预测准确率影响较小,同时也提出了一种随机平滑的认证防御策略,但该防御策略在某些情况下无效。
Jun, 2020