图神经网络的对抗性训练
本文探讨了图神经网络在面临敌对攻击时的脆弱性,并提出了一种名为 Pro-GNN 的框架,以基于真实世界图形的内在属性来联合学习结构性图形和稳健性 GNN 模型以应对此问题。通过实验表明,Pro-GNN 在防御敌对攻击方面表现优异。
May, 2020
该研究论文介绍 Deep Neural Networks 和 Graph Neural Networks 对抗攻击的脆弱性,提出了相关攻击和防御的借鉴,以及一个算法库用于研究对抗攻击和防御。
Mar, 2020
本文研究了基于图结构的深度学习模型的鲁棒性问题,针对修改数据的组合结构而导致模型攻击的问题,提出了基于强化学习的攻击方法,同时引入遗传算法和梯度法等多种变形方法来进行攻击,并通过实验验证了针对图级别和节点级别分类任务的多种图神经网络模型都具有易受攻击性,同时这些攻击手段可以用来进一步诊断分类器。
Jun, 2018
本文探讨如何通过对图神经网络的敌对训练来提高模型的可解释性,通过一种新的度量标准来评估解释方法对模型学习到的表征的利用效果,并证明对于化学领域的应用,敌对训练可以更好地提取与领域相关的见解。
Jun, 2021
本文提出了基于图神经网络(GNNs)的对抗攻击的防御机制,包括新的对抗训练策略和平滑防御策略。实验结果表明,这些策略能够提高 GNNs 的抵御攻击的能力,并且在不同的网络分析任务中能够有效地防御各种对抗攻击。
Mar, 2019
图神经网络 (GNNs) 的脆弱性研究,通过系统性地考虑图数据模式、模型特定因素和对抗样本的传递性,揭示了对抗攻击对 GNN 的影响,从而为提高 GNN 的对抗鲁棒性提供了相关的准则和原则。
Jun, 2024
机器学习在网络入侵检测系统中被广泛应用,但其易受到对抗性攻击的影响。本文提出了特定于图神经网络的对抗性攻击的形式化,并模拟了现实场景中可行的结构攻击。同时,通过实验验证了这些模型对经典基于特征的对抗性攻击的抵抗力提升,同时也展示了它们对结构攻击的脆弱性。
Mar, 2024
本文提出了基于梯度的攻击方法,以解决离散图数据的难点,并基于此提出了第一个面向图神经网络的基于优化的对抗训练,可以提高不同梯度和贪心攻击方法的鲁棒性,同时不牺牲原始图的分类准确性。
Jun, 2019
该论文提出了一种称为 DefNet 的针对图神经网络 (GNN) 的有效对抗性防御框架,结合图神经网络每一层中的潜在漏洞和条件 GAN 方法对其进行训练,有效提高了 GNN 在各种类型的对抗攻击下的鲁棒性。
May, 2019