图神经网络的后门攻击
本文介绍了一种基于图神经网络的链接预测任务中的后门攻击方法,并揭示了 GNN 模型中存在的安全漏洞,当触发器出现时,后门将被嵌入 GNN 模型中,导致模型错误地预测未连接的两个节点之间存在链接关系。
Jan, 2024
本文提出了第一种基于图神经网络(GNN)的后门攻击检测和防御方法,通过评估模型的透明度和不透明度,识别恶意样本,并利用其可解释性确定最显著的子图,从而减少成功攻击率。
Sep, 2022
通过定义、总结与分类当前的 GNN 后门攻击和防御,应用场景的分析以及对 GNN 后门潜在研究方向的探索,本论文提供了对 GNN 后门的调查,并在图后门原理方面做出探索,为防御方提供见解并推动未来的安全研究。
Jun, 2024
通过开发新的度量方法,探测 Graph Neural Networks 中的后门攻击,并在多个基准数据集上进行测试,取得了较高的检测性能。
Mar, 2024
图神经网络对抵御不同属性的后门攻击进行了实证验证,并提出了一种随机边缘去除的检测方法,并通过引入新的强化训练策略来有效地抵御触发器的影响。在真实数据集上进行的广泛实验证明,该框架能够有效地识别受到污染的节点,在抵御具有不同属性的不同类型图后门攻击时显著降低攻击成功率,并保持清洁准确性。
Jun, 2024
本文探讨了在图神经网络中 backdoor 攻击中,触发信号的注入位置对攻击结果的影响,通过实验证实了基于 GraphLIME 方法选择触发信号注入位置可以提高攻击成功率的有效性。
Apr, 2021
研究探讨了 GNN 中的防后门攻击,提出了一种新的攻击方法 GTA,可以在各类安全应用中袭击任何实验中的模型;该攻击方法是基于子图,能够在不了解下游模型或微调策略的情况下立即启动,并在基准数据集和最先进的模型上进行了广泛的评估。
Jun, 2020
本文研究了一种新颖的问题,即使用分布内的触发器进行不可察觉的图形后门攻击。为了生成分布内的触发器,我们引入了一个离群点检测器和对抗性学习策略,以在分布内生成触发器的属性。在真实世界的数据集上进行的大量实验证明了所提方法在生成可以绕过各种防御策略的分布内触发器的同时,能够保持高攻击成功率。
May, 2024
本研究发现并展示了 TRAP 攻击,一种生成可转移的背门攻击(transferable backdoor attacks)的新型杂质触发方法,该攻击利用 surrogate Graph Convolutional Network(GCN)模型生成样本特定的干扰触发器,可以被转移到不同的 GNN 模型中,是一种新型的黑盒背门攻击。
Jun, 2022
该研究提出了一种对图卷积网络(GCNs)进行干净图后门攻击(CBAG)的方法,在节点分类任务中仅通过污染训练标签而不对训练样本进行任何修改,揭示了 GCNs 的安全漏洞。实验结果表明,我们的干净图后门攻击能够在保持 GCNs 模型正常功能的同时实现 99% 的攻击成功率。
Apr, 2024