具有消息传递保证的图简缩化
本文提出了一种使用图粗化来实现可扩展 GNN 训练的不同方法,详细介绍了图粗化操作的影响和选择方法,并表明图粗化也可看作一种正则化手段。实证结果表明,简单地应用成熟的粗化方法,可以将节点数降低到原来的十分之一而不会导致分类精度的明显下降。
Jun, 2021
该研究从不同的角度研究了图的加粗技术,并提出了一种保持图距离的方法,该方法使用 Gromov-Wasserstein(GW)距离,并采用加权核 K-means 方法最小化两个图的距离及其加粗版本之间的差异,以此来改进现有的谱保存方法。研究还包括一组实验,支持理论和方法,包括利用谱信息对图进行分类和回归。
Jun, 2023
该研究提出了一种新的、适应性强的信息传递框架 ——bilateral-MP,利用节点类别信息估计成对的模块化梯度,并在聚合函数应用时利用梯度进一步保留全局图结构,在五个中等规模基准数据集上的实验表明,bilateral-MP 可以有效防止过度平滑导致的性能降低。
Feb, 2022
我们考虑使用图神经网络(GNN)非马尔科夫建模框架来识别图上的粗粒化动力系统。我们的主要思路是通过检查莫里 - 茨旺齐记忆项的主导项如何依赖编码图拓扑的粗粒化相互作用系数,系统地确定 GNN 的体系结构。基于这个分析,我们发现适当的 GNN 体系结构需要至少进行 2K 步的消息传递(MP)机制,以考虑 K - 跳动力学相互作用。我们还推断出,在相互作用强度以跳距离的幂律衰减的假设下,准确的闭包模型所需的记忆长度会随着相互作用强度的减小而减小。针对两个例子,异质库拉莫特振荡器模型和电力系统,我们进行了支持性的数值演示,表明所提出的 GNN 体系结构能够预测固定和时变图拓扑下的粗粒化动力学。
May, 2024
提出了一种基于拓扑感知的图粗化与持续学习框架,该框架通过将先前任务的信息存储为精简图,在每个时间段通过与新图结合并对齐共享节点来扩展精简图,并通过缩减过程进行稳定大小的 “缩小”,实验证明了该框架在三个真实数据集上使用不同的骨干 GNN 模型的有效性。
Jan, 2024
基于子图的图神经网络(Subgraph GNNs)通过将图表示为子图集合来增强信息传递式图神经网络的表达能力,并引入了新的子图 GNN 框架以解决性能限制和子图选择问题。通过控制粗化函数,实现了对任意数量子图的有意义选择,并将其与标准训练技术兼容。实验证明,该方法比基线方法更加灵活,在处理任意数量子图时表现出更好的性能。
Jun, 2024
研究了 MPNN 在图分类和回归中的泛化误差,表明 MPNN 的复杂度越高,泛化差距越大;同时,不仅训练样本数,而且图中平均节点数对泛化差距也有影响。从统一收敛结果导出泛化界限,表明在图上应用 MPNN 可以逼近离散化的几何模型上的 MPNN。
Feb, 2022