图形通用对抗攻击:个别恶意行为破坏图学习模型
本文主要介绍了第一项针对属性通用图的对抗攻击研究,特别关注利用图卷积思想的模型,在针对测试及训练阶段的攻击中生成针对节点特征和图结构的对抗扰动,并确保这些扰动在保存重要数据特征的同时,不被察觉,旨在帮助更好地理解和缓解目前深度学习模型在对抗环境下的不足。
May, 2018
本文探讨了图神经网络在面临敌对攻击时的脆弱性,并提出了一种名为 Pro-GNN 的框架,以基于真实世界图形的内在属性来联合学习结构性图形和稳健性 GNN 模型以应对此问题。通过实验表明,Pro-GNN 在防御敌对攻击方面表现优异。
May, 2020
本研究探索了图卷积网络的鲁棒性。我们提出了一种新的 “假节点攻击” 来攻击 GCN,通过添加恶意伪造节点相对于以往攻击更加现实。我们使用了贪婪算法来产生具有误导性质的恶意节点,并介绍了一种分类器来将恶意节点与真实节点区分开来,我们的攻击使得 GCN 的准确性下降到 0.03,针对一组 100 个节点的情况下,我们的有目标攻击成功率高达 78%,对于单个目标节点平均攻击成功率为 90%。
Oct, 2018
本文研究了基于图结构的深度学习模型的鲁棒性问题,针对修改数据的组合结构而导致模型攻击的问题,提出了基于强化学习的攻击方法,同时引入遗传算法和梯度法等多种变形方法来进行攻击,并通过实验验证了针对图级别和节点级别分类任务的多种图神经网络模型都具有易受攻击性,同时这些攻击手段可以用来进一步诊断分类器。
Jun, 2018
本研究针对网络表征学习方法中基于随机游走的广泛使用问题,提供了首个对其鲁棒性的对抗性漏洞分析,提出有效的对抗性扰动对网络结构造成了负面影响,并证明本研究提出的攻击是可迁移的。
Sep, 2018
通过特征基对抗攻击研究了图在现代社交媒体和学术应用中所具有的复杂网络,并侧重于决策时攻击和毒化攻击,与 Net Attack 和 Meta Attack 等现有模型不同,我们的研究专门针对节点属性。利用 Hellaswag 文本数据集和 Cora 以及 CiteSeer 图数据集进行了分析,结果发现使用投影梯度下降的决策时攻击比使用平均节点嵌入和图对比学习策略的毒化攻击更强大,这为图数据安全提供了启示,指出了图模型最脆弱的部分,从而推动了对此类攻击的更强大防御机制的开发。
Feb, 2024
给出一个名为 “partial graph attack (PGA)” 的全新方法,通过选择易受攻击的节点作为攻击目标,实现了更高效的图全局攻击效果。
Aug, 2023
研究黑盒攻击图神经网络中节点选择的问题,发现通过基于 PageRank 的重要度计算可提高分类误差率,提出一种基于贪心算法的修正方法能有效地解决被攻击节点数量与分类误差率之间的矛盾。
Jun, 2020
本文通过建立节点注入攻击的马尔科夫决策过程模型,提出了一种基于强化学习框架 (GA2C)的节点注入方法,将注入节点结构化地插入原图中。研究结果表明,与现有最先进的方法相比,本文提出的 GA2C 方法具有更高的注入成功率和分类误差率。
Feb, 2022