图形后门
通过定义、总结与分类当前的 GNN 后门攻击和防御,应用场景的分析以及对 GNN 后门潜在研究方向的探索,本论文提供了对 GNN 后门的调查,并在图后门原理方面做出探索,为防御方提供见解并推动未来的安全研究。
Jun, 2024
本文介绍了一种基于图神经网络的链接预测任务中的后门攻击方法,并揭示了 GNN 模型中存在的安全漏洞,当触发器出现时,后门将被嵌入 GNN 模型中,导致模型错误地预测未连接的两个节点之间存在链接关系。
Jan, 2024
本研究发现并展示了 TRAP 攻击,一种生成可转移的背门攻击(transferable backdoor attacks)的新型杂质触发方法,该攻击利用 surrogate Graph Convolutional Network(GCN)模型生成样本特定的干扰触发器,可以被转移到不同的 GNN 模型中,是一种新型的黑盒背门攻击。
Jun, 2022
本文提出了一种基于子图的背门攻击方法,可以对图神经网络进行攻击。在实验中发现,该攻击在对干净测试图的预测准确率影响较小,同时也提出了一种随机平滑的认证防御策略,但该防御策略在某些情况下无效。
Jun, 2020
本文提出了第一种基于图神经网络(GNN)的后门攻击检测和防御方法,通过评估模型的透明度和不透明度,识别恶意样本,并利用其可解释性确定最显著的子图,从而减少成功攻击率。
Sep, 2022
本文探讨了在图神经网络中 backdoor 攻击中,触发信号的注入位置对攻击结果的影响,通过实验证实了基于 GraphLIME 方法选择触发信号注入位置可以提高攻击成功率的有效性。
Apr, 2021
本文旨在解决针对图形数据的后门攻击问题,提出了一种称为 “邻近后门” 的后门,通过设置触发节点并将其与目标节点相连接来触发后门,在保持模型准确性的情况下,提出了两种后门方案:线性图卷积后门和现有图攻击变体。经过多次实验,所有提出的后门攻击均能够在几乎不影响预测准确性的情况下实现几乎 100% 的攻击成功率。
Jan, 2022
本文研究了一种新颖的问题,即使用分布内的触发器进行不可察觉的图形后门攻击。为了生成分布内的触发器,我们引入了一个离群点检测器和对抗性学习策略,以在分布内生成触发器的属性。在真实世界的数据集上进行的大量实验证明了所提方法在生成可以绕过各种防御策略的分布内触发器的同时,能够保持高攻击成功率。
May, 2024
通过开发新的度量方法,探测 Graph Neural Networks 中的后门攻击,并在多个基准数据集上进行测试,取得了较高的检测性能。
Mar, 2024
图神经网络对抵御不同属性的后门攻击进行了实证验证,并提出了一种随机边缘去除的检测方法,并通过引入新的强化训练策略来有效地抵御触发器的影响。在真实数据集上进行的广泛实验证明,该框架能够有效地识别受到污染的节点,在抵御具有不同属性的不同类型图后门攻击时显著降低攻击成功率,并保持清洁准确性。
Jun, 2024