PRES:面向可扩展内存的动态图神经网络
本文提出一种有效可扩展的方法 DistTGL,该方法通过增强 TGNN 模型、改进训练算法和优化系统,实现了在分布式 GPU 集群上训练内存基础全局连通图神经网络(memory-based temporal graph neural networks)。实验表明,DistTGL 算法比同类单机方法在准确性和训练吞吐量方面分别提高了 14.5% 和 10.17 倍。
Jul, 2023
基于内存回放技术的研究已经在增量累积欧几里得数据的连续学习中取得了巨大成功。然而,直接将其应用于不断扩大的图表会导致潜在的内存爆炸问题,因为需要缓冲代表节点及其相关的拓扑邻域结构。为了解决这个问题,我们系统地分析了内存爆炸问题中的关键挑战,并提出了一种通用的框架,即参数独立的图神经网络(PDGNNs)与拓扑感知嵌入记忆(TEM),以应对这个问题。该提出的框架不仅将内存空间复杂性从 O (nd^L) 降低到 O (n),而且还充分利用了拓扑信息进行内存回放。通过解耦可训练参数与计算自我子图之间的关系,PDGNNs 通过拓扑感知嵌入(TEs)将自我子图压缩为紧凑的向量(即 TEs),以减少内存消耗。基于这个框架,我们发现了在不断扩大的图表上连续学习中独特的伪训练效应,并由此激发了我们开发一种新的覆盖率最大化采样策略,可以在紧凑的内存预算下提高性能。深入的实证研究表明,通过解决内存爆炸问题并将拓扑信息与内存回放相结合,PDGNNs 与 TEM 明显优于最先进的技术,特别是在具有挑战性的类增量设置中。
Jan, 2024
本文提出了一种可扩展的体系结构,利用随机循环神经网络将输入时序的历史数据嵌入到高维状态表示中,并利用不同幂次的图相邻矩阵沿空间维传播以生成节点嵌入,从而实现多尺度的时空特征表示,我们的方法在保证结果竞争力的同时,大大降低了计算负担。
Sep, 2022
通过广泛的实验,我们研究了训练动态图神经网络时时间粒度对性能和鲁棒性的影响,发现复杂的记忆机制和合适的时间粒度对于在动态链接预测任务中获得竞争力和鲁棒性的动态图神经网络至关重要。我们还讨论了考虑模型和数据集中的局限性,并提出了未来关于时间图时间粒度的研究方向。
Nov, 2023
股市是金融系统的关键组成部分,本文提出了一种名为 MDGNN 的动态图神经网络框架,结合传统方法和图模型,全面捕捉股票之间的多方面关系和随时间的演化,利用 Transformer 结构编码时间演化的多重关系,实现了最佳股票投资预测性能。
Jan, 2024
提出了 PiPAD,一种基于管道和并行设计的动态图神经网络 (DGNNs) 训练框架,用于在 GPU 上进行端到端性能优化。在各种数据集上的评估表明,PiPAD 在三种代表性模型上实现了 1.22 倍 - 9.57 倍的超越最先进的 DGNN 框架的加速。
Jan, 2023
图神经网络已成为从图结构数据中有效挖掘和学习的强大工具,但大多数研究侧重于静态图,忽视了真实世界网络的动态特性,该论文提供了对基本概念、关键技术和最新动态图神经网络模型的全面综述。
Apr, 2024
本文提出了一种通过动态和稀疏的图结构来执行深度神经网络(DNNs)进行压缩存储和加速执行的方法,该方法在训练和推断时均可应用,以优化深度神经网络的轻量化模型。实验证明该方法可以显著提供存储和操作的性能,并在各种基准测试中几乎无损失地维护准确性。
Oct, 2018
本文提出了一种针对动态图神经网络的对比预训练方法 (CPDG),通过灵活的结构 - 时间子图采样器和结构 - 时间对比预训练机制,解决了动态图神经网络在预训练中面临的泛化和长短期建模能力等挑战,并在大规模研究和工业动态图数据集上展开广泛实验,证明了 CPDG 在三种迁移设置下优于现有方法的动态图预训练能力。
Jul, 2023