Krait:一种针对图形提示调优的后门攻击
本文探讨了在图神经网络中backdoor攻击中,触发信号的注入位置对攻击结果的影响,通过实验证实了基于GraphLIME方法选择触发信号注入位置可以提高攻击成功率的有效性。
Apr, 2021
本文旨在解决针对图形数据的后门攻击问题,提出了一种称为“邻近后门”的后门,通过设置触发节点并将其与目标节点相连接来触发后门,在保持模型准确性的情况下,提出了两种后门方案:线性图卷积后门和现有图攻击变体。经过多次实验,所有提出的后门攻击均能够在几乎不影响预测准确性的情况下实现几乎100%的攻击成功率。
Jan, 2022
本文提出了一种基于图案的后门攻击(Motif-Backdoor),从基序结构和后门攻击效果的相关性解释了后门攻击的有效性,并在不需要目标模型反馈或子图模型生成的情况下实现了有效的触发器结构。
Oct, 2022
研究发现将触发器注入样本区域的最重要或最不重要的区域(简称MIAS和LIAS)是图神经网络背门攻击中的有效策略,LIAS的表现比MIAS更好,并用说明技术解释了这两种策略的类似(更好)的攻击性能,从而进一步理解了GNN中的背门攻击。
Apr, 2023
本文介绍了一种基于图神经网络的链接预测任务中的后门攻击方法,并揭示了GNN模型中存在的安全漏洞,当触发器出现时,后门将被嵌入GNN模型中,导致模型错误地预测未连接的两个节点之间存在链接关系。
Jan, 2024
本文研究了一种新颖的问题,即使用分布内的触发器进行不可察觉的图形后门攻击。为了生成分布内的触发器,我们引入了一个离群点检测器和对抗性学习策略,以在分布内生成触发器的属性。在真实世界的数据集上进行的大量实验证明了所提方法在生成可以绕过各种防御策略的分布内触发器的同时,能够保持高攻击成功率。
May, 2024
图神经网络对抵御不同属性的后门攻击进行了实证验证,并提出了一种随机边缘去除的检测方法,并通过引入新的强化训练策略来有效地抵御触发器的影响。在真实数据集上进行的广泛实验证明,该框架能够有效地识别受到污染的节点,在抵御具有不同属性的不同类型图后门攻击时显著降低攻击成功率,并保持清洁准确性。
Jun, 2024
通过定义、总结与分类当前的GNN后门攻击和防御,应用场景的分析以及对GNN后门潜在研究方向的探索,本论文提供了对GNN后门的调查,并在图后门原理方面做出探索,为防御方提供见解并推动未来的安全研究。
Jun, 2024
最近,图压缩已成为提高图神经网络(GNN)训练效率的主要技术之一。本文通过将大型图压缩为小型图,使得在小型合成图上训练的GNN能够达到与在大型图上训练的GNN相当的性能。然而,现有的图压缩研究主要关注图大小和GNN性能(模型效用)之间的最佳权衡,却没有研究图压缩的安全问题。为了弥补这一研究空白,我们提出了反向图压缩的任务。通过注入触发器攻击图压缩,本文引入了两个主要目标:1)触发器的注入不能影响压缩图的质量,保持GNN在其上训练的有效性;2)在整个压缩过程中,触发器的效果应该保持不变,从而实现高攻击成功率。为了实现这些目标,我们设计了第一种反向图压缩攻击方法BGC。具体而言,我们在压缩过程中注入触发器,并迭代更新触发器以确保攻击的有效性。此外,我们提出了一个有毒节点选择模块,以最小化触发器对压缩图质量的影响。广泛的实验证明了我们攻击方法的有效性。在所有情况下,BGC实现了高攻击成功率(接近1.0)和良好的模型效用。此外,实验结果表明我们的方法对抗多种防御方法的能力。最后,我们进行了全面的研究,分析影响攻击性能的因素。
Jul, 2024