通过对图结构进行连续松弛和参数化,我们提出了一种名为 Differentiable Graph Attack(DGA)的新型攻击方法,以高效生成有效的攻击并同时消除了昂贵的重新训练的需求。与最新技术相比,DGA 在不同基准数据集上实现了几乎相等的攻击性能,训练时间减少了 6 倍,GPU 内存占用减少了 11 倍。此外,我们还对 DGA 在不同图模型之间的可转移性以及对广泛使用的防御机制的鲁棒性进行了广泛的实验分析。
Aug, 2023
本文研究了如何攻击和防御大规模 GNN,设计了一种高效表示的稀疏感知优化攻击和鲁棒的聚合函数 ——Soft Median,并且展示了优于常见代理损失函数的全局攻击替代方案。
Oct, 2021
研究黑盒攻击图神经网络中节点选择的问题,发现通过基于 PageRank 的重要度计算可提高分类误差率,提出一种基于贪心算法的修正方法能有效地解决被攻击节点数量与分类误差率之间的矛盾。
Jun, 2020
该研究提出了一种对图神经网络 (GNNs) 进行攻击的方法,称为 AGSOA,该方法通过平均梯度计算和结构优化模块来提高攻击的性能。通过在所有时刻计算梯度信息的平均值来引导攻击生成扰动边,从而稳定攻击更新的方向并避免不良局部最大值;通过计算目标节点与其他节点的相似性和均匀性来调整图结构,从而提高攻击的隐蔽性和可转移性。在三个常用数据集上的实验证明,相比其他先进模型,AGSOA 提高了误分类率 2% 至 8%。
Jun, 2024
本文提出了基于梯度的攻击方法,以解决离散图数据的难点,并基于此提出了第一个面向图神经网络的基于优化的对抗训练,可以提高不同梯度和贪心攻击方法的鲁棒性,同时不牺牲原始图的分类准确性。
Jun, 2019
该研究论文介绍 Deep Neural Networks 和 Graph Neural Networks 对抗攻击的脆弱性,提出了相关攻击和防御的借鉴,以及一个算法库用于研究对抗攻击和防御。
Mar, 2020
本研究基于图卷积网络的渐变信息生成对抗性网络,在社交网络等情境中,通过只重新链接少量节点即可干扰网络嵌入,保护目标节点的隐私。
Sep, 2018
本文探讨了图神经网络在面临敌对攻击时的脆弱性,并提出了一种名为 Pro-GNN 的框架,以基于真实世界图形的内在属性来联合学习结构性图形和稳健性 GNN 模型以应对此问题。通过实验表明,Pro-GNN 在防御敌对攻击方面表现优异。
May, 2020
通过设计一种新的 HGNNs 攻击模型,即 MGHGA,集中在修改节点特征上,本论文试图填补现有研究中对 HGNNs 敌对攻击的研究空白,通过在特征选择和特征修改模块中使用动量梯度机制和特征生成方法,MGHGA 能够在离散和连续数据集上有效对节点和视觉对象分类任务进行攻击,并在实验证明相对于基准方法,MGHGA 的攻击性能平均提升了 2%。
Oct, 2023
本文提出了一种对节点分类的图注入攻击 (Cluster Attack--a Graph Injection Attack),通过将虚假节点注入到原始图中,以退化图神经网络 (GNNs) 对特定受害节点的性能,同时尽可能少地影响其他节点,并将受害节点聚类。该攻击以一种实际且不易被察觉的基于查询的黑盒方式进行,具有较高的攻击成功率。
Sep, 2021