大规模动态图的解耦图神经网络
本文提出一种新的动态图神经网络模型 DGNN,能够利用图的动态信息,通过捕捉边之间的顺序信息、边之间的时间间隔和信息传播一致性,不断更新节点信息,以适应不断发展变化的图,实验结果证明了该框架的有效性。
Oct, 2018
图神经网络已成为从图结构数据中有效挖掘和学习的强大工具,但大多数研究侧重于静态图,忽视了真实世界网络的动态特性,该论文提供了对基本概念、关键技术和最新动态图神经网络模型的全面综述。
Apr, 2024
GNNFlow 是一个分布式框架,可以在多 GPU 机器上进行高效的连续时态图表示学习,支持动态图并采用自适应的时间索引块数据结构、混合 GPU-CPU 图数据放置、GPU 缓存以及优化策略等技术,实现了比现有系统快 21.1 倍的连续学习效果。
Nov, 2023
本文提出了一种连续图神经网络 (CGNN),可以广泛应用于现有的离散动态的图神经网络,并能够捕捉节点之间的远距离依赖关系。实验结果表明,相对于竞争基线,该方法在节点分类任务上是有效的,且具有抗过度平滑的特性。
Dec, 2019
介绍一种名为 SpikeNet 的可扩展框架,它旨在使用脉冲神经网络(SNNs)而非循环神经网络(RNNs)来捕获时变图的时变和结构模式,SpikeNet 在计算成本更低的情况下在时态节点分类任务上超过了强基线,并具有更少的计算负担。
Aug, 2022
本文回顾了动态图学习的问题和模型,分析和讨论了各种动态图的监督学习设置,并确定了现有模型的相似之处和不同之处,最后为 DGNN 设计者在面对动态图学习问题时提供了一般指导原则。
Apr, 2023
该研究论文提出了一种名为动态神经图网络(Dynamic Spiking Graph Neural Networks)的框架,用于解决动态图表示学习中的信息丢失和内存要求问题,通过将早期信息直接传递到最后一层以进行信息补偿,并在动态图环境中扩展了隐式微分以适应内存要求,并通过在三个大规模实际动态图数据集上的大量实验证明了其在动态节点分类任务上的有效性与较低的计算成本。
Dec, 2023
本研究训练了图神经网络以适应来自非线性动力系统的时间序列,发现了学习表示和模型组件的简单解释,并成功地确定了 ' 图翻译器 ',使两种新类型广义:仅基于时间序列观测来恢复新系统实例的潜在结构,或者直接从该结构构造新网络。结果表明,理解复杂系统的动态和结构及其如何用于泛化的途径。
Feb, 2022
本文提出了一种基于图神经网络的动态股票图学习方法,通过自动构建具有动态性的股票图,并通过广义图扩散过程学习股票之间的依赖关系,进而采用一种解耦表示学习方案获取股票的层次性特征,实验结果表明该方法在建模股票间和股票内部动态性方面具有显著的改进。
Jan, 2024
本文提出一种基于持续学习的流式 GNN 模型,通过信息传播和数据重放与模型正则化相结合,实现了对新模式和既有模式的同时维护,解决了历史知识被新知识覆盖的灾难性遗忘问题。在多个实验数据集上的节点分类结果表明,该模型能有效地更新模型参数并达到与重新训练相当的性能。
Sep, 2020