图神经反应扩散模型
本研究提出了一种名为 GREAD 的基于反应扩散方程的 GNN 方法,它考虑了所有流行的反应类型以及我们设计的一种特殊反应方程。在 9 个数据集和 28 个基线的实验中,我们的方法在大多数情况下都优于它们。进一步的合成数据实验表明,它缓解了过度平滑问题,并可用于各种同质化率。
Nov, 2022
本文介绍了连续深度图神经网络 (GNN) 的框架,将图神经常微分方程 (GDEs) 形式化为 GNN 的对应物,其输入输出关系由一系列 GNN 层的连续融合离散拓扑结构和微分方程来决定,证明了其兼容各种静态和自回归 GNN 模型。结果表明 GDEs 在静态设置中通过在前向传递中将数值方法纳入其中提供了计算优势,在动态设置中,通过利用潜在动态的几何结构性能得到了提高。
Nov, 2019
本文提出了一种基于对流 - 扩散 - 反应系统的新型图神经网络 (ADR-GNN),在实际节点分类和时空数据集上的评估表明,ADR-GNN 在性能上改进或与最先进的网络具有竞争性。
Jul, 2023
本文提出了一种名为 TDE-GNN 的模型,它可以捕捉超过典型的一阶或二阶方法的各种时间动力学,并提供了现有时间模型难以处理的用例。通过在几个图形基准上学习时间依赖性,我们证明了使用我们的方法学习时间依赖性而不是使用预定义时间动态的好处。
Jan, 2024
将域差分方程纳入图卷积网络(GCN)中可以提高空时预测的准确性和鲁棒性,我们提出了 Reaction-Diffusion Graph Convolutional Network(RDGCN)和 Susceptible-Infectious-Recovered Graph Convolutional Network(SIRGCN),它们基于可靠且可解释的域差分方程,能够适应不同的测试数据,并且相比于现有的深度学习方法具有更强的鲁棒性。
Apr, 2024
基于微分方程的连续图神经模型拓展了图神经网络的架构,通过聚合 - 扩散方程启发的 GRADE 模型在非线性扩散和聚合之间找到了一种微妙的平衡,通过产生亚稳态节点表示聚集成多个聚类,从而缓解了过度平滑的问题,该模型达到了竞争性的性能,证明了其在图神经网络中减轻过度平滑问题的作用。
Mar, 2024
用连续扩散过程作为图上深度学习的方法,将 Graph Neural Networks (GNNs) 视为潜在 PDE 的离散化,从而得到了一种新的 GNN 模型,该模型采用时空算子离散化,解决了图学习模型中的深度、平滑过渡和瓶颈等问题。通过稳定性分析,可以得到线性和非线性版本的 GRAND 模型,这些模型能够在许多标准图标准测试中取得很好的效果。
Jun, 2021
图神经网络(GNNs)在建模关系型数据方面表现出显著的潜力,并被广泛应用于各个领域。图神经网络的关键机制是所谓的消息传递,其中信息从邻域迭代地聚合到中心节点。将消息传递过程类比为热扩散动力学可以从根本上理解 GNNs 的优势和局限,并进而指导模型设计。最近,出现了大量使用连续动态学的 GNNs 的作品,旨在解决 GNNs 已知的局限性,如过度平滑和过度压缩。在这项调查中,我们首次系统全面地审查了使用连续动态学视角的研究。为此,我们介绍了适应 GNNs 的连续动态学的基本要素,以及对图神经动力学设计的一般框架。然后,我们根据它们的驱动机制和基础动力学对现有作品进行了回顾和分类。我们还总结了如何在连续框架下解决经典 GNNs 的局限性。最后,我们确定了多个开放的研究方向。
Oct, 2023
提出了一个带有准确性项的一般扩散方程框架,从而形式化地建立了扩散过程与更多图卷积网络之间的关系,并通过实验证明了高阶邻居标签之间的相似性特征,推动了新型图扩散网络(HiD-Net)的设计。
Dec, 2023
研究动态图的表示学习,提出了 Graph Neural Controlled Differential Equation (GN-CDE) 模型,通过深度神经网络参量化向量场和交互导数,对节点嵌入轨迹的动态演化进行建模,实现了在动态演化的图上表达动态的能力。
Feb, 2023