基于可解释性的反向门攻击针对图神经网络
本文提出了第一种基于图神经网络(GNN)的后门攻击检测和防御方法,通过评估模型的透明度和不透明度,识别恶意样本,并利用其可解释性确定最显著的子图,从而减少成功攻击率。
Sep, 2022
研究发现将触发器注入样本区域的最重要或最不重要的区域(简称 MIAS 和 LIAS)是图神经网络背门攻击中的有效策略,LIAS 的表现比 MIAS 更好,并用说明技术解释了这两种策略的类似(更好)的攻击性能,从而进一步理解了 GNN 中的背门攻击。
Apr, 2023
通过开发新的度量方法,探测 Graph Neural Networks 中的后门攻击,并在多个基准数据集上进行测试,取得了较高的检测性能。
Mar, 2024
本文介绍了一种基于图神经网络的链接预测任务中的后门攻击方法,并揭示了 GNN 模型中存在的安全漏洞,当触发器出现时,后门将被嵌入 GNN 模型中,导致模型错误地预测未连接的两个节点之间存在链接关系。
Jan, 2024
本文研究了一种新颖的问题,即使用分布内的触发器进行不可察觉的图形后门攻击。为了生成分布内的触发器,我们引入了一个离群点检测器和对抗性学习策略,以在分布内生成触发器的属性。在真实世界的数据集上进行的大量实验证明了所提方法在生成可以绕过各种防御策略的分布内触发器的同时,能够保持高攻击成功率。
May, 2024
本文提出了一种基于子图的背门攻击方法,可以对图神经网络进行攻击。在实验中发现,该攻击在对干净测试图的预测准确率影响较小,同时也提出了一种随机平滑的认证防御策略,但该防御策略在某些情况下无效。
Jun, 2020
图神经网络对抵御不同属性的后门攻击进行了实证验证,并提出了一种随机边缘去除的检测方法,并通过引入新的强化训练策略来有效地抵御触发器的影响。在真实数据集上进行的广泛实验证明,该框架能够有效地识别受到污染的节点,在抵御具有不同属性的不同类型图后门攻击时显著降低攻击成功率,并保持清洁准确性。
Jun, 2024
研究探讨了 GNN 中的防后门攻击,提出了一种新的攻击方法 GTA,可以在各类安全应用中袭击任何实验中的模型;该攻击方法是基于子图,能够在不了解下游模型或微调策略的情况下立即启动,并在基准数据集和最先进的模型上进行了广泛的评估。
Jun, 2020
通过定义、总结与分类当前的 GNN 后门攻击和防御,应用场景的分析以及对 GNN 后门潜在研究方向的探索,本论文提供了对 GNN 后门的调查,并在图后门原理方面做出探索,为防御方提供见解并推动未来的安全研究。
Jun, 2024
本文旨在解决针对图形数据的后门攻击问题,提出了一种称为 “邻近后门” 的后门,通过设置触发节点并将其与目标节点相连接来触发后门,在保持模型准确性的情况下,提出了两种后门方案:线性图卷积后门和现有图攻击变体。经过多次实验,所有提出的后门攻击均能够在几乎不影响预测准确性的情况下实现几乎 100% 的攻击成功率。
Jan, 2022