Jul, 2024

后门图压缩

TL;DR最近,图压缩已成为提高图神经网络(GNN)训练效率的主要技术之一。本文通过将大型图压缩为小型图,使得在小型合成图上训练的GNN能够达到与在大型图上训练的GNN相当的性能。然而,现有的图压缩研究主要关注图大小和GNN性能(模型效用)之间的最佳权衡,却没有研究图压缩的安全问题。为了弥补这一研究空白,我们提出了反向图压缩的任务。通过注入触发器攻击图压缩,本文引入了两个主要目标:1)触发器的注入不能影响压缩图的质量,保持GNN在其上训练的有效性;2)在整个压缩过程中,触发器的效果应该保持不变,从而实现高攻击成功率。为了实现这些目标,我们设计了第一种反向图压缩攻击方法BGC。具体而言,我们在压缩过程中注入触发器,并迭代更新触发器以确保攻击的有效性。此外,我们提出了一个有毒节点选择模块,以最小化触发器对压缩图质量的影响。广泛的实验证明了我们攻击方法的有效性。在所有情况下,BGC实现了高攻击成功率(接近1.0)和良好的模型效用。此外,实验结果表明我们的方法对抗多种防御方法的能力。最后,我们进行了全面的研究,分析影响攻击性能的因素。