图上的广义神经扩散框架
用连续扩散过程作为图上深度学习的方法,将Graph Neural Networks(GNNs)视为潜在PDE的离散化,从而得到了一种新的GNN模型,该模型采用时空算子离散化,解决了图学习模型中的深度、平滑过渡和瓶颈等问题。通过稳定性分析,可以得到线性和非线性版本的GRAND模型,这些模型能够在许多标准图标准测试中取得很好的效果。
Jun, 2021
本文探讨细胞鞘理论在图神经网络研究中的应用,研究表明图的基础几何结构与GNN在异质性场景下的过度平滑行为有深刻关联。通过学习来自数据的sheaf,可以获得具有竞争力的表现。
Feb, 2022
提出使用渐进扩散差距的方法进行跳跃的扩散 - hops exploration,从而产生更具有动态支持的结构过滤器,建议用Dirichlet问题作为一种方法来在异类亲缘而不相关的标签分布的情况下学习逐段平滑的积淀空间,并使用(可学习的)渐进扩散距离、吸收随机漫步和(具有可学习性)随机扩散进行链接探索。
Jun, 2023
本文提出了一种基于变分分析的归纳偏差方法以增强图神经网络的长距离依赖和全局模式捕捉能力,并采用总变差方法对图扩散模式与社区拓扑进行对齐,最后构建了一种能够预测图中传播流的生成对抗网络。最终,我们的方法在Cora、Citeseer和Pubmed等著名图学习数据集上实现了最新的性能水平。
Jul, 2023
图扩散方程与图神经网络紧密相关,并近期引起关注,作为一种分析图神经网络动态、形式化其表达能力并证明架构选择的原则性框架。本文通过探索图扩散方程在不同图拓扑存在下的外推与概括能力,向理解图神经网络的泛化能力迈出了一步。在现有基于图局部扩散的模型中,我们首先展示了其泛化能力的不足之处,这源于对拓扑变化的指数敏感性。随后的分析揭示了非局部扩散的潜力,它提倡在具有特定数据生成条件的情况下,通过在完全连接的潜在图上进行特征传播。除了这些发现,我们提出了一种新颖的图编码器骨干,即Advective Diffusion Transformer (ADiT),它受到具有封闭形式解和理论保证的Advective图扩散方程的启发,在拓扑分布转移情况下具有期望的泛化能力。这个新模型作为一种多功能图Transformer,在各种图学习任务中展现出卓越的表现。
Oct, 2023
图神经网络(GNNs)在建模关系型数据方面表现出显著的潜力,并被广泛应用于各个领域。图神经网络的关键机制是所谓的消息传递,其中信息从邻域迭代地聚合到中心节点。将消息传递过程类比为热扩散动力学可以从根本上理解GNNs的优势和局限,并进而指导模型设计。最近,出现了大量使用连续动态学的GNNs的作品,旨在解决GNNs已知的局限性,如过度平滑和过度压缩。在这项调查中,我们首次系统全面地审查了使用连续动态学视角的研究。为此,我们介绍了适应GNNs的连续动态学的基本要素,以及对图神经动力学设计的一般框架。然后,我们根据它们的驱动机制和基础动力学对现有作品进行了回顾和分类。我们还总结了如何在连续框架下解决经典GNNs的局限性。最后,我们确定了多个开放的研究方向。
Oct, 2023
通过运算子半群理论,本论文探讨了扩散型图神经网络(GNNs)中的过平滑问题并证明了过平滑与扩散算子的遍历性相关。我们提出了一种普适且理论基础良好的方法来缓解扩散型GNNs中的过平滑问题,并对我们的理论进行了概率解释,从而与之前的研究建立关联并拓展了理论视野。实验结果显示,这种遍历性破坏项有效地缓解了通过Dirichlet能量度量的过平滑,并同时提升了节点分类任务的性能。
Feb, 2024
基于微分方程的连续图神经模型拓展了图神经网络的架构,通过聚合-扩散方程启发的GRADE模型在非线性扩散和聚合之间找到了一种微妙的平衡,通过产生亚稳态节点表示聚集成多个聚类,从而缓解了过度平滑的问题,该模型达到了竞争性的性能,证明了其在图神经网络中减轻过度平滑问题的作用。
Mar, 2024
本研究聚焦于扩散模型在图中的理解,填补了理论与应用之间的空白。通过对不同扩散和采样技术的实证研究,探讨了噪声、采样方法的选择及神经网络 approximating 函数的复杂性对模型表现的影响。研究结果将有助于深化对扩散模型的理解,并推动其在图机器学习中的应用。
Aug, 2024
本研究解决了传统图拉普拉斯在捕捉异质图长距离信息方面存在的局限性。提出了一种新的参数化拉普拉斯矩阵,能够灵活控制节点间的扩散距离,从而改善长距离信息的捕捉能力。实验证明,所提出的模型在多个真实世界基准数据集上显著优于现有最先进模型,显示出其强大的适应性与实用性。
Sep, 2024