攻击图结构时梯度告诉我们什么
研究黑盒攻击图神经网络中节点选择的问题,发现通过基于 PageRank 的重要度计算可提高分类误差率,提出一种基于贪心算法的修正方法能有效地解决被攻击节点数量与分类误差率之间的矛盾。
Jun, 2020
本文提出了基于梯度的攻击方法,以解决离散图数据的难点,并基于此提出了第一个面向图神经网络的基于优化的对抗训练,可以提高不同梯度和贪心攻击方法的鲁棒性,同时不牺牲原始图的分类准确性。
Jun, 2019
研究了图神经网络在测试时间遭受对抗攻击的影响,通过边扰动进行节点之间的重要性识别和边的改变,发现在节点分类中引入不同类别节点之间的边相比于移除同一类别节点之间的边具有更大的影响。
Dec, 2023
本文提出了一种简化梯度攻击的方法,可以通过多阶段攻击框架在只需较小子图的情况下使图神经网络误分类。此外,作者还提出了度同配改变这一实用指标来衡量对图数据的对抗攻击的影响。
Sep, 2020
本文提出了一种针对图神经网络的对抗攻击方法,通过图重连的操作,使用强化学习生成对于目标模型影响较小的扰动,并在真实图数据集上进行实验及分析,证明该方法的有效性。
Jun, 2019
本文主要介绍了第一项针对属性通用图的对抗攻击研究,特别关注利用图卷积思想的模型,在针对测试及训练阶段的攻击中生成针对节点特征和图结构的对抗扰动,并确保这些扰动在保存重要数据特征的同时,不被察觉,旨在帮助更好地理解和缓解目前深度学习模型在对抗环境下的不足。
May, 2018
本文分析并讨论了结构梯度不可靠性问题对图嵌入分类预测的影响,提出一种新的攻击模型和方法来减小这些误差。提出了边缘离散取样、候选选择和语义不变性等方法来提高攻击效率和稳定性,实验结果表明了新方法的优越性。
Aug, 2022
本文探讨了图神经网络在面临敌对攻击时的脆弱性,并提出了一种名为 Pro-GNN 的框架,以基于真实世界图形的内在属性来联合学习结构性图形和稳健性 GNN 模型以应对此问题。通过实验表明,Pro-GNN 在防御敌对攻击方面表现优异。
May, 2020
HGAttack 是针对异构图设计的首个灰盒逃避攻击方法,通过设计一种新颖的代理模型,利用梯度方法实现扰动生成,提高了生成攻击在目标 HGNN 上的可转移性并显著降低了内存成本。在三个数据集上的综合实验证实了 HGAttack 的有效性。
Jan, 2024
该论文提出一种名为 Talos 的新防御方法,通过增强图的全局同质性来抵御针对图神经网络的对抗攻击,实验证明该方法在防御效果上显著优于现有方法且计算开销较小。
Jun, 2024