网络嵌入的快速梯度攻击
本文针对基于梯度信息的对抗攻击方法,对深度学习模型的图嵌入算法的有效性造成了影响,提出了一种动量梯度攻击(Momentum Gradient Attack,MGA)算法。该方法通过将动量项融合到迭代过程中,可以稳定更新方向,使模型跳出较差的局部最优解,并增强了其转移能力,实现了更具侵略性的攻击。实验表明,MGA 算法具有更好的攻击效果和转移能力。
Feb, 2020
本文提出了一种简化梯度攻击的方法,可以通过多阶段攻击框架在只需较小子图的情况下使图神经网络误分类。此外,作者还提出了度同配改变这一实用指标来衡量对图数据的对抗攻击的影响。
Sep, 2020
通过对图结构进行连续松弛和参数化,我们提出了一种名为 Differentiable Graph Attack(DGA)的新型攻击方法,以高效生成有效的攻击并同时消除了昂贵的重新训练的需求。与最新技术相比,DGA 在不同基准数据集上实现了几乎相等的攻击性能,训练时间减少了 6 倍,GPU 内存占用减少了 11 倍。此外,我们还对 DGA 在不同图模型之间的可转移性以及对广泛使用的防御机制的鲁棒性进行了广泛的实验分析。
Aug, 2023
本文定义并阐述了链接预测对抗攻击问题,并提出了一种基于图形自编码器中训练的梯度信息的迭代梯度攻击方法(IGA),该方法表明多数深度学习模型和最先进的链接预测算法都无法逃避对抗攻击。
Oct, 2018
本研究探索了图卷积网络的鲁棒性。我们提出了一种新的 “假节点攻击” 来攻击 GCN,通过添加恶意伪造节点相对于以往攻击更加现实。我们使用了贪婪算法来产生具有误导性质的恶意节点,并介绍了一种分类器来将恶意节点与真实节点区分开来,我们的攻击使得 GCN 的准确性下降到 0.03,针对一组 100 个节点的情况下,我们的有目标攻击成功率高达 78%,对于单个目标节点平均攻击成功率为 90%。
Oct, 2018
本文提出一种名为 AFGSM 的可测量攻击框架,用于针对在大规模节点图上的深度学习模型进行攻击,实现注入新的恶意节点并大幅降低模型分类准确率。
Apr, 2020
通过设计一种新的 HGNNs 攻击模型,即 MGHGA,集中在修改节点特征上,本论文试图填补现有研究中对 HGNNs 敌对攻击的研究空白,通过在特征选择和特征修改模块中使用动量梯度机制和特征生成方法,MGHGA 能够在离散和连续数据集上有效对节点和视觉对象分类任务进行攻击,并在实验证明相对于基准方法,MGHGA 的攻击性能平均提升了 2%。
Oct, 2023
本研究针对图神经网络的黑盒节点插入攻击问题,提出了基于强化学习框架的渐进式无梯度节点插入攻击方法,并通过对八个基准数据集的广泛实验表明其在攻击效率和攻击成功率方面均优于现有攻击方法。
Nov, 2022
本文通过建立节点注入攻击的马尔科夫决策过程模型,提出了一种基于强化学习框架 (GA2C)的节点注入方法,将注入节点结构化地插入原图中。研究结果表明,与现有最先进的方法相比,本文提出的 GA2C 方法具有更高的注入成功率和分类误差率。
Feb, 2022
本研究针对网络表征学习方法中基于随机游走的广泛使用问题,提供了首个对其鲁棒性的对抗性漏洞分析,提出有效的对抗性扰动对网络结构造成了负面影响,并证明本研究提出的攻击是可迁移的。
Sep, 2018