基于图神经网络的链路预测任务的后门攻击
本文提出了一种基于子图的背门攻击方法,可以对图神经网络进行攻击。在实验中发现,该攻击在对干净测试图的预测准确率影响较小,同时也提出了一种随机平滑的认证防御策略,但该防御策略在某些情况下无效。
Jun, 2020
通过定义、总结与分类当前的 GNN 后门攻击和防御,应用场景的分析以及对 GNN 后门潜在研究方向的探索,本论文提供了对 GNN 后门的调查,并在图后门原理方面做出探索,为防御方提供见解并推动未来的安全研究。
Jun, 2024
本文探讨了在图神经网络中 backdoor 攻击中,触发信号的注入位置对攻击结果的影响,通过实验证实了基于 GraphLIME 方法选择触发信号注入位置可以提高攻击成功率的有效性。
Apr, 2021
本文研究了一种新颖的问题,即使用分布内的触发器进行不可察觉的图形后门攻击。为了生成分布内的触发器,我们引入了一个离群点检测器和对抗性学习策略,以在分布内生成触发器的属性。在真实世界的数据集上进行的大量实验证明了所提方法在生成可以绕过各种防御策略的分布内触发器的同时,能够保持高攻击成功率。
May, 2024
研究探讨了 GNN 中的防后门攻击,提出了一种新的攻击方法 GTA,可以在各类安全应用中袭击任何实验中的模型;该攻击方法是基于子图,能够在不了解下游模型或微调策略的情况下立即启动,并在基准数据集和最先进的模型上进行了广泛的评估。
Jun, 2020
本文研究了在链接预测中的后门攻击问题,并提出了一种基于伪造节点实现触发器优化的 Link-Backdoor 方法,该方法在多个公开基准数据集上进行了测试,并证明了其在白盒和黑盒攻击场景下均具有最先进的攻击成功率,并且在防御情况下,Link-Backdoor 仍然可以成功攻击表现良好的链接预测模型。
Aug, 2022
本文提出了第一种基于图神经网络(GNN)的后门攻击检测和防御方法,通过评估模型的透明度和不透明度,识别恶意样本,并利用其可解释性确定最显著的子图,从而减少成功攻击率。
Sep, 2022
通过开发新的度量方法,探测 Graph Neural Networks 中的后门攻击,并在多个基准数据集上进行测试,取得了较高的检测性能。
Mar, 2024
图神经网络对抵御不同属性的后门攻击进行了实证验证,并提出了一种随机边缘去除的检测方法,并通过引入新的强化训练策略来有效地抵御触发器的影响。在真实数据集上进行的广泛实验证明,该框架能够有效地识别受到污染的节点,在抵御具有不同属性的不同类型图后门攻击时显著降低攻击成功率,并保持清洁准确性。
Jun, 2024
本文旨在解决针对图形数据的后门攻击问题,提出了一种称为 “邻近后门” 的后门,通过设置触发节点并将其与目标节点相连接来触发后门,在保持模型准确性的情况下,提出了两种后门方案:线性图卷积后门和现有图攻击变体。经过多次实验,所有提出的后门攻击均能够在几乎不影响预测准确性的情况下实现几乎 100% 的攻击成功率。
Jan, 2022