本文探讨了图神经网络在面临敌对攻击时的脆弱性,并提出了一种名为 Pro-GNN 的框架,以基于真实世界图形的内在属性来联合学习结构性图形和稳健性 GNN 模型以应对此问题。通过实验表明,Pro-GNN 在防御敌对攻击方面表现优异。
May, 2020
该研究论文介绍 Deep Neural Networks 和 Graph Neural Networks 对抗攻击的脆弱性,提出了相关攻击和防御的借鉴,以及一个算法库用于研究对抗攻击和防御。
Mar, 2020
本研究针对图形结构数据,基于随机平滑技术,开发出可证明鲁棒性的图神经网络,证明其对于节点和图分类具有结构扰动的认证鲁棒性保证,并在多个 GNN 和多个基准数据集上进行了实证评估。
Aug, 2020
本文提出了基于梯度的攻击方法,以解决离散图数据的难点,并基于此提出了第一个面向图神经网络的基于优化的对抗训练,可以提高不同梯度和贪心攻击方法的鲁棒性,同时不牺牲原始图的分类准确性。
Jun, 2019
本文主要介绍了第一项针对属性通用图的对抗攻击研究,特别关注利用图卷积思想的模型,在针对测试及训练阶段的攻击中生成针对节点特征和图结构的对抗扰动,并确保这些扰动在保存重要数据特征的同时,不被察觉,旨在帮助更好地理解和缓解目前深度学习模型在对抗环境下的不足。
May, 2018
研究黑盒攻击图神经网络中节点选择的问题,发现通过基于 PageRank 的重要度计算可提高分类误差率,提出一种基于贪心算法的修正方法能有效地解决被攻击节点数量与分类误差率之间的矛盾。
Jun, 2020
本研究探索了图卷积网络的鲁棒性。我们提出了一种新的 “假节点攻击” 来攻击 GCN,通过添加恶意伪造节点相对于以往攻击更加现实。我们使用了贪婪算法来产生具有误导性质的恶意节点,并介绍了一种分类器来将恶意节点与真实节点区分开来,我们的攻击使得 GCN 的准确性下降到 0.03,针对一组 100 个节点的情况下,我们的有目标攻击成功率高达 78%,对于单个目标节点平均攻击成功率为 90%。
Oct, 2018
通过对图结构进行连续松弛和参数化,我们提出了一种名为 Differentiable Graph Attack(DGA)的新型攻击方法,以高效生成有效的攻击并同时消除了昂贵的重新训练的需求。与最新技术相比,DGA 在不同基准数据集上实现了几乎相等的攻击性能,训练时间减少了 6 倍,GPU 内存占用减少了 11 倍。此外,我们还对 DGA 在不同图模型之间的可转移性以及对广泛使用的防御机制的鲁棒性进行了广泛的实验分析。
Aug, 2023
这篇研究提出一种鲁棒的图神经网络实现方法,明确考虑了观察拓扑中的扰动,通过优化可学习参数和真实图形来解决非可微且受限制的优化问题,适用于各种类型的图形,并可整合关于扰动的先验信息。通过多个数值实验评估了该方法的性能。
Dec, 2023
该研究通过针对硬件安全中的基于图神经网络技术的攻击,提出了 AttackGNN 方法,并通过生成对抗性示例,即电路,来欺骗这些技术。通过攻击,成功地生成了能欺骗所有测试电路的对抗电路,包括知识产权盗版、硬件木马侦测 / 定位、电路逆向工程和硬件混淆等四类硬件安全问题。
Feb, 2024