通过对图结构进行连续松弛和参数化,我们提出了一种名为 Differentiable Graph Attack(DGA)的新型攻击方法,以高效生成有效的攻击并同时消除了昂贵的重新训练的需求。与最新技术相比,DGA 在不同基准数据集上实现了几乎相等的攻击性能,训练时间减少了 6 倍,GPU 内存占用减少了 11 倍。此外,我们还对 DGA 在不同图模型之间的可转移性以及对广泛使用的防御机制的鲁棒性进行了广泛的实验分析。
Aug, 2023
本文提出了一种简化梯度攻击的方法,可以通过多阶段攻击框架在只需较小子图的情况下使图神经网络误分类。此外,作者还提出了度同配改变这一实用指标来衡量对图数据的对抗攻击的影响。
Sep, 2020
本文提出了基于梯度的攻击方法,以解决离散图数据的难点,并基于此提出了第一个面向图神经网络的基于优化的对抗训练,可以提高不同梯度和贪心攻击方法的鲁棒性,同时不牺牲原始图的分类准确性。
Jun, 2019
通过特征基对抗攻击研究了图在现代社交媒体和学术应用中所具有的复杂网络,并侧重于决策时攻击和毒化攻击,与 Net Attack 和 Meta Attack 等现有模型不同,我们的研究专门针对节点属性。利用 Hellaswag 文本数据集和 Cora 以及 CiteSeer 图数据集进行了分析,结果发现使用投影梯度下降的决策时攻击比使用平均节点嵌入和图对比学习策略的毒化攻击更强大,这为图数据安全提供了启示,指出了图模型最脆弱的部分,从而推动了对此类攻击的更强大防御机制的开发。
Feb, 2024
研究黑盒攻击图神经网络中节点选择的问题,发现通过基于 PageRank 的重要度计算可提高分类误差率,提出一种基于贪心算法的修正方法能有效地解决被攻击节点数量与分类误差率之间的矛盾。
Jun, 2020
该研究探讨了在图神经网络中存在诸多锚节点(即恶意节点),即使存在很少的锚节点,也会对模型产生严重的破坏性影响,并提出了一种名为 GUA 的算法来识别锚节点。
Feb, 2020
本文研究了图建模在解决安全问题方面的能力,重点是对抗机器学习中尚未解决的问题进行了探讨:基于图聚类技术和全局特征空间的对抗性攻击,同时提出了对抗性攻击的防御策略。
Aug, 2017
本文探讨了图神经网络在面临敌对攻击时的脆弱性,并提出了一种名为 Pro-GNN 的框架,以基于真实世界图形的内在属性来联合学习结构性图形和稳健性 GNN 模型以应对此问题。通过实验表明,Pro-GNN 在防御敌对攻击方面表现优异。
May, 2020
我们提出了一种名为成本感知中毒攻击(CA-attack)的新型攻击损失框架,通过动态考虑节点的分类间距来改善攻击预算的分配,具体地,它优先处理具有较小正间距的节点,推后处理具有负间距的节点。我们的实验证明,所提出的 CA-attack 显著增强了现有的攻击策略。
Dec, 2023
本文提出了一种对节点分类的图注入攻击 (Cluster Attack--a Graph Injection Attack),通过将虚假节点注入到原始图中,以退化图神经网络 (GNNs) 对特定受害节点的性能,同时尽可能少地影响其他节点,并将受害节点聚类。该攻击以一种实际且不易被察觉的基于查询的黑盒方式进行,具有较高的攻击成功率。
Sep, 2021