可扩展离散动态图神经网络的输入快照融合
该研究论文提出了一种名为动态神经图网络(Dynamic Spiking Graph Neural Networks)的框架,用于解决动态图表示学习中的信息丢失和内存要求问题,通过将早期信息直接传递到最后一层以进行信息补偿,并在动态图环境中扩展了隐式微分以适应内存要求,并通过在三个大规模实际动态图数据集上的大量实验证明了其在动态节点分类任务上的有效性与较低的计算成本。
Dec, 2023
本文提出一种新的动态图神经网络模型 DGNN,能够利用图的动态信息,通过捕捉边之间的顺序信息、边之间的时间间隔和信息传播一致性,不断更新节点信息,以适应不断发展变化的图,实验结果证明了该框架的有效性。
Oct, 2018
本文提出了一种分离式图神经网络方法,适用于连续型和离散型大型动态图,通过统一的动态传播方法,能够在预测任务中支持序列模型,实现了卓越的可扩展性和表现力,实验结果在连续型和离散型动态图上均达到了最先进表现。
May, 2023
介绍一种名为 SpikeNet 的可扩展框架,它旨在使用脉冲神经网络(SNNs)而非循环神经网络(RNNs)来捕获时变图的时变和结构模式,SpikeNet 在计算成本更低的情况下在时态节点分类任务上超过了强基线,并具有更少的计算负担。
Aug, 2022
本文提出一种基于动态扩散变分图神经网络 (DVGNN) 的动态图构建方法,并在时序数据集上对 DVGNN 进行实验,证明它可以更好地反映动态图的因果关系和不确定性,达到更好的预测效果。
May, 2023
本研究提出了动态异构图神经网络及其变体 DyHGN,使用商业交易数据来构建动态异构图,并使用模型解释技术来理解 DyHGN-* 模型的行为,其发现表明建模带异构输入的图动态行为需要依赖于数据结构、分布和计算成本的 “关注”。
Apr, 2022
为了提高多变量时间序列预测任务的性能,我们提出了一种可扩展的自适应图扩散预测网络(SAGDFN),用于捕捉大规模多变量时间序列数据中的复杂时空相关性。该方法在拥有数千个节点的数据集上表现出色,并且不需要先验的空间相关知识。通过大量实验证明,SAGDFN 在一个由 207 个节点组成的真实数据集上的性能与最先进的基准方法相当,并在三个由 2000 个节点组成的真实数据集上的性能优于所有最先进的基准方法。
Jun, 2024
本文回顾了动态图学习的问题和模型,分析和讨论了各种动态图的监督学习设置,并确定了现有模型的相似之处和不同之处,最后为 DGNN 设计者在面对动态图学习问题时提供了一般指导原则。
Apr, 2023
Implicit Dynamic Graph Neural Network (IDGNN) 是一种针对动态图的新型隐式神经网络模型,通过提出一个等价的双层优化问题和一种高效的单循环训练算法来克服计算上的困难,以在分类和回归任务中展现出优于现有模型的性能,并在性能保持的同时获得高达 1600 倍的加速。
Jun, 2024
图神经网络已成为从图结构数据中有效挖掘和学习的强大工具,但大多数研究侧重于静态图,忽视了真实世界网络的动态特性,该论文提供了对基本概念、关键技术和最新动态图神经网络模型的全面综述。
Apr, 2024