EDoG: 图神经网络的对抗性边缘检测
通过对图结构进行连续松弛和参数化,我们提出了一种名为 Differentiable Graph Attack(DGA)的新型攻击方法,以高效生成有效的攻击并同时消除了昂贵的重新训练的需求。与最新技术相比,DGA 在不同基准数据集上实现了几乎相等的攻击性能,训练时间减少了 6 倍,GPU 内存占用减少了 11 倍。此外,我们还对 DGA 在不同图模型之间的可转移性以及对广泛使用的防御机制的鲁棒性进行了广泛的实验分析。
Aug, 2023
GNNGuard 是一个通用的算法,可以防御基于离散图形结构的多种训练时攻击,利用图形结构和节点特征之间的关系减轻攻击的负面影响,通过将更高的权重分配给连接相似节点的边,修剪不相关节点之间的边,这种方法在不同数据集和攻击条件下表现出 15.3%的优越性。
Jun, 2020
本文介绍了一种新颖的对抗性边缘删除方法(ADEdgeDrop),利用对抗性边缘预测器引导边的删除,以提高图神经网络(GNNs)的鲁棒性。
Mar, 2024
本文提出了针对图数据的攻击和防御技术,其中引入了集成梯度来解决离散特征的问题,并且发现对于攻击后的图形,它的统计特征与正常图形不同,并提出一种检查图像并找到潜在的对抗扰动的方法。经过若干数据集的测试显示本文方法的有效性。
Mar, 2019
本文探讨了图神经网络在面临敌对攻击时的脆弱性,并提出了一种名为 Pro-GNN 的框架,以基于真实世界图形的内在属性来联合学习结构性图形和稳健性 GNN 模型以应对此问题。通过实验表明,Pro-GNN 在防御敌对攻击方面表现优异。
May, 2020
该研究论文介绍 Deep Neural Networks 和 Graph Neural Networks 对抗攻击的脆弱性,提出了相关攻击和防御的借鉴,以及一个算法库用于研究对抗攻击和防御。
Mar, 2020
本文研究了一种新颖的问题,即使用分布内的触发器进行不可察觉的图形后门攻击。为了生成分布内的触发器,我们引入了一个离群点检测器和对抗性学习策略,以在分布内生成触发器的属性。在真实世界的数据集上进行的大量实验证明了所提方法在生成可以绕过各种防御策略的分布内触发器的同时,能够保持高攻击成功率。
May, 2024
本文提出了基于梯度的攻击方法,以解决离散图数据的难点,并基于此提出了第一个面向图神经网络的基于优化的对抗训练,可以提高不同梯度和贪心攻击方法的鲁棒性,同时不牺牲原始图的分类准确性。
Jun, 2019
本文提出了一个简单而有效的框架 G3AD,它引入了两个辅助网络和相关性约束来保护 GNN 免受不一致信息编码的影响。此外,G3AD 还引入了一个自适应缓存模块,以防止 GNN 仅重构包含异常的观察数据。大量实验证明,我们提出的 G3AD 在合成数据集和实际数据集上均能优于 17 个最先进的方法。
Apr, 2024
本研究探索了图卷积网络的鲁棒性。我们提出了一种新的 “假节点攻击” 来攻击 GCN,通过添加恶意伪造节点相对于以往攻击更加现实。我们使用了贪婪算法来产生具有误导性质的恶意节点,并介绍了一种分类器来将恶意节点与真实节点区分开来,我们的攻击使得 GCN 的准确性下降到 0.03,针对一组 100 个节点的情况下,我们的有目标攻击成功率高达 78%,对于单个目标节点平均攻击成功率为 90%。
Oct, 2018