本文提出了基于梯度的攻击方法,以解决离散图数据的难点,并基于此提出了第一个面向图神经网络的基于优化的对抗训练,可以提高不同梯度和贪心攻击方法的鲁棒性,同时不牺牲原始图的分类准确性。
Jun, 2019
本文探讨了图神经网络在面临敌对攻击时的脆弱性,并提出了一种名为 Pro-GNN 的框架,以基于真实世界图形的内在属性来联合学习结构性图形和稳健性 GNN 模型以应对此问题。通过实验表明,Pro-GNN 在防御敌对攻击方面表现优异。
May, 2020
本文提出了一种简化梯度攻击的方法,可以通过多阶段攻击框架在只需较小子图的情况下使图神经网络误分类。此外,作者还提出了度同配改变这一实用指标来衡量对图数据的对抗攻击的影响。
Sep, 2020
通过对代表性鲁棒性图神经网络的鲁棒性分析,我们提供了一个统一的鲁棒估计视角以了解它们的鲁棒性和局限性。我们通过估计偏差的新颖分析来设计了一个鲁棒而无偏的图信号估计器,并开发了一个高效的拟牛顿迭代加权最小二乘算法来解决估计问题,在图神经网络中展开为鲁棒无偏的聚合层,并具有理论上的收敛保证。我们的综合实验证实了我们提出模型的强鲁棒性,剖析研究深入认识了其优势。
Nov, 2023
图神经网络 (GNNs) 的脆弱性研究,通过系统性地考虑图数据模式、模型特定因素和对抗样本的传递性,揭示了对抗攻击对 GNN 的影响,从而为提高 GNN 的对抗鲁棒性提供了相关的准则和原则。
Jun, 2024
我们进行了第一个敌对鲁棒性研究,针对比传统的消息传递神经网络(MPNNs)更强大的图神经网络(GNNs)。具体而言,我们使用敌对鲁棒性作为一种工具,揭示了它们在理论上可能的表达能力与实际达到的表达能力之间的显著差距,并针对 GNNs 计算特定子图模式的能力,这是一种已建立的表达能力度量,将敌对鲁棒性的概念扩展到了该任务上。基于此,我们开发了有效的对抗攻击子图计数,并表明更强大的 GNNs 甚至无法适应对图结构的轻微扰动。此外,我们还展示了这种架构在超出分布的图上也无法计算子结构。
Aug, 2023
本文提出了基于图神经网络(GNNs)的对抗攻击的防御机制,包括新的对抗训练策略和平滑防御策略。实验结果表明,这些策略能够提高 GNNs 的抵御攻击的能力,并且在不同的网络分析任务中能够有效地防御各种对抗攻击。
Mar, 2019
该研究论文介绍 Deep Neural Networks 和 Graph Neural Networks 对抗攻击的脆弱性,提出了相关攻击和防御的借鉴,以及一个算法库用于研究对抗攻击和防御。
Mar, 2020
GNNGuard 是一个通用的算法,可以防御基于离散图形结构的多种训练时攻击,利用图形结构和节点特征之间的关系减轻攻击的负面影响,通过将更高的权重分配给连接相似节点的边,修剪不相关节点之间的边,这种方法在不同数据集和攻击条件下表现出 15.3%的优越性。
Jun, 2020
本研究首次探讨有向图在提供网络固有结构丰富信息方面的重要性,为了增强 GNN 的鲁棒性和弹性,我们提出一种全新的信息传递框架作为插件层,并结合现有的防御策略,取得了优异的干净精确度和最先进的鲁棒性能,具有超强的防御转移和自适应攻击的作用。
Jun, 2023