通过开发新的度量方法,探测 Graph Neural Networks 中的后门攻击,并在多个基准数据集上进行测试,取得了较高的检测性能。
Mar, 2024
本文探讨了在图神经网络中 backdoor 攻击中,触发信号的注入位置对攻击结果的影响,通过实验证实了基于 GraphLIME 方法选择触发信号注入位置可以提高攻击成功率的有效性。
Apr, 2021
本文提出了一种基于子图的背门攻击方法,可以对图神经网络进行攻击。在实验中发现,该攻击在对干净测试图的预测准确率影响较小,同时也提出了一种随机平滑的认证防御策略,但该防御策略在某些情况下无效。
Jun, 2020
我们提出了一种基于解释的后门检测方法,利用拓扑信息来检测后门样本,通过训练一个辅助模型,将图样本输入模型,并采用解释方法将模型预测归因于一个重要的子图,通过观察到后门样本和干净样本的不同归因分布,解释子图可以作为更具有辨别性的特征来检测后门样本,全面的实验验证了我们方法的有效性和可解释性。
Aug, 2023
图神经网络对抵御不同属性的后门攻击进行了实证验证,并提出了一种随机边缘去除的检测方法,并通过引入新的强化训练策略来有效地抵御触发器的影响。在真实数据集上进行的广泛实验证明,该框架能够有效地识别受到污染的节点,在抵御具有不同属性的不同类型图后门攻击时显著降低攻击成功率,并保持清洁准确性。
Jun, 2024
本文介绍了一种基于图神经网络的链接预测任务中的后门攻击方法,并揭示了 GNN 模型中存在的安全漏洞,当触发器出现时,后门将被嵌入 GNN 模型中,导致模型错误地预测未连接的两个节点之间存在链接关系。
Jan, 2024
本文研究深度神经网络面临的后门攻击问题,提出了基于 L∞规范的神经元修剪方法来消除后门,实验证明该方法成功率显著降低,并对清晰图像保持高分类准确度。
Feb, 2020
研究探讨了 GNN 中的防后门攻击,提出了一种新的攻击方法 GTA,可以在各类安全应用中袭击任何实验中的模型;该攻击方法是基于子图,能够在不了解下游模型或微调策略的情况下立即启动,并在基准数据集和最先进的模型上进行了广泛的评估。
通过定义、总结与分类当前的 GNN 后门攻击和防御,应用场景的分析以及对 GNN 后门潜在研究方向的探索,本论文提供了对 GNN 后门的调查,并在图后门原理方面做出探索,为防御方提供见解并推动未来的安全研究。
本文研究了一种新颖的问题,即使用分布内的触发器进行不可察觉的图形后门攻击。为了生成分布内的触发器,我们引入了一个离群点检测器和对抗性学习策略,以在分布内生成触发器的属性。在真实世界的数据集上进行的大量实验证明了所提方法在生成可以绕过各种防御策略的分布内触发器的同时,能够保持高攻击成功率。
May, 2024