利用模块解耦加强时态图网络
提出了一种将多层 GNN 分解为多个简单模块的框架,并采用前向和后向训练机制进行高效训练,可以避免由于层数增加导致的依赖性快速增长和大量时间消耗。通过理论证明和实验结果表明,该框架的性能可行且高效。
Apr, 2023
本文提出了一种分离式图神经网络方法,适用于连续型和离散型大型动态图,通过统一的动态传播方法,能够在预测任务中支持序列模型,实现了卓越的可扩展性和表现力,实验结果在连续型和离散型动态图上均达到了最先进表现。
May, 2023
LasTGL 是一个用于解决时间图学习问题的产业框架,它整合了常见的时间图学习算法的统一和可扩展实现,并提供了全面的时间图数据集、TGNN 模型和工具,适用于初学者和专业深度学习从业者。
Nov, 2023
本文提出了 TGL,一个适用于大规模离线图神经网络的统一框架,在多个 GPU 上进行训练,该框架包括时间采样器、邮箱、节点内存模块、内存更新器和消息传递引擎等五个主要组件,并通过随机块调度技术解决了训练大批量样本时过时的节点内存等问题。在多个小规模和两个大规模数据集上的实验结果表明,TGL 可以实现更快的训练速度和类似或更好的准确性。
Mar, 2022
我们研究直接应用 Temporal Graph Networks(TGN)在推荐系统中,通过使用现实世界数据集和各种图形和历史嵌入方法,确认 TGN 在动态推荐场景中的适应性和有效性。
Mar, 2024
本文提出了解决反向传播过程中每层必须等待信号传播整个网络才能更新的锁定问题的替代方案 Decoupled Greedy Learning,通过使用最小反馈进行网络训练,并探讨了该方案的优化方法,可以在线性层级并行化的情况下独立地训练网络层或模块,本方案能够在异步环境下运行,并且具有更好的泛化性能,实验证明其对于 CIFAR-10 数据集和大规模 ImageNet 数据集的分类效果优于其他方案。
Jan, 2019
本文提出一种新的算法 —— 动态图形学习,旨在在动态图形中共同学习图形信息和时间信息,并利用梯度元学习来学习更新策略,在快照上具有比 RNN 更好的泛化能力,能够训练任何基于消息传递的图神经网络以增强表示能力。
Nov, 2021
通过广泛的实验,我们研究了训练动态图神经网络时时间粒度对性能和鲁棒性的影响,发现复杂的记忆机制和合适的时间粒度对于在动态链接预测任务中获得竞争力和鲁棒性的动态图神经网络至关重要。我们还讨论了考虑模型和数据集中的局限性,并提出了未来关于时间图时间粒度的研究方向。
Nov, 2023