GNNGuard: 防御图神经网络的对抗攻击
本文探讨了图神经网络在面临敌对攻击时的脆弱性,并提出了一种名为 Pro-GNN 的框架,以基于真实世界图形的内在属性来联合学习结构性图形和稳健性 GNN 模型以应对此问题。通过实验表明,Pro-GNN 在防御敌对攻击方面表现优异。
May, 2020
本研究提出了一种基于 Graph Universal Adversarial Defense (GUARD) 的简单而有效的方法,通过生成一个通用防御补丁来保护每个节点免受攻击,并在多个对抗攻击中显著提高了已建立的 GCN 的鲁棒性,并且该方法超越了目前的最先进的防御方法。
Apr, 2022
图神经网络(GNN)是处理图结构数据的主要方法,但存在对小的对抗性扰动脆弱性的问题。本文介绍了一种新的防御方法 NoisyGNNs,它通过在模型架构中引入噪声来提高 GNN 的鲁棒性。通过理论分析和实证评估,揭示了噪声注入和 GNN 鲁棒性增强之间的关联,并展示了 NoisyGNN 在节点分类任务上的卓越性能。这种方法是模型无关的,可与不同的 GNN 架构集成,与现有的防御技术结合使用可以进一步提高对抗性防御效果。
Feb, 2024
GraphGuard 是一个无需训练数据的方法,通过使用具有电离辐射特性的数据进行成员推断,提高成员和非成员数据分布的可区分性,从而在不依赖原始数据的情况下检测并通过有针对性的遗忘来减轻图数据滥用的影响。
Dec, 2023
本文提出了一个简单而有效的框架 G3AD,它引入了两个辅助网络和相关性约束来保护 GNN 免受不一致信息编码的影响。此外,G3AD 还引入了一个自适应缓存模块,以防止 GNN 仅重构包含异常的观察数据。大量实验证明,我们提出的 G3AD 在合成数据集和实际数据集上均能优于 17 个最先进的方法。
Apr, 2024
本文提出了基于梯度的攻击方法,以解决离散图数据的难点,并基于此提出了第一个面向图神经网络的基于优化的对抗训练,可以提高不同梯度和贪心攻击方法的鲁棒性,同时不牺牲原始图的分类准确性。
Jun, 2019
该研究论文介绍 Deep Neural Networks 和 Graph Neural Networks 对抗攻击的脆弱性,提出了相关攻击和防御的借鉴,以及一个算法库用于研究对抗攻击和防御。
Mar, 2020
本文提出了基于图神经网络(GNNs)的对抗攻击的防御机制,包括新的对抗训练策略和平滑防御策略。实验结果表明,这些策略能够提高 GNNs 的抵御攻击的能力,并且在不同的网络分析任务中能够有效地防御各种对抗攻击。
Mar, 2019
本文研究了图卷积网络在对抗扰动下的鲁棒性,通过提出 GraphDefense 方法,成功提高了图卷积网络的鲁棒性,同时能够维持半监督学习的设定,具有较大的应用潜力。
Nov, 2019
该论文提出了一种称为 DefNet 的针对图神经网络 (GNN) 的有效对抗性防御框架,结合图神经网络每一层中的潜在漏洞和条件 GAN 方法对其进行训练,有效提高了 GNN 在各种类型的对抗攻击下的鲁棒性。
May, 2019