Nov, 2023

加强图压缩:通过无交叉对抗训练聚焦于弱节点

TL;DR本文研究了通过将大型、复杂的图形压缩成精炼、综合的表示形式来解决图形凝结问题,这种表示形式保留了结构和特征的最关键和最具区分性的信息。我们提出了减震器(一种扰动)的概念,以对原始图进行对抗训练方式下的稳定性增强。通过在定期间隔上强制匹配在合成、简化图形上训练的预选图神经网络(GNN)与原始训练图形之间的梯度(I),以及在每次更新合成图形点之前,减震器作为梯度攻击者通过选择性扰动不足表达或信息不足的部分来最大程度地增大合成数据集和原始图形之间的距离(II)。我们以对抗训练方式迭代地重复上述两个过程(I 和 II),以保持高度信息性的上下文,同时不失去与原始数据集的相关性。与原始对抗训练相比,我们的减震器和合成图形并行地在自由训练模式下共享后向过程,几乎没有额外的时间开销。我们在 8 个数据集(3 个图形分类数据集和 5 个节点分类数据集)上验证了我们的框架,并取得了卓越的结果:例如,在 Cora、Citeseer 和 Ogbn-Arxiv 上,与 SOTA 模型相比,我们可以获得近 1.13%至 5.03%的改进。此外,我们的算法只会在 Flicker、Citeseer 和 Ogbn-Arxiv 上增加约 0.2%至 2.2%的额外时间开销。与常规对抗训练相比,我们的方法提高了近 4 倍的时间效率。