本文全面回顾了增强记忆的图神经网络的现有文献,并通过心理学和神经科学的视角进行了分类和比较,提出了一些批判性的讨论和未来方向。
Sep, 2022
通过在算法空间中训练 Graph Neural Networks 来解决基于图结构的问题,使用基于最大化的信息传递神经网络来实现离散决策,同时实现了任务迁移并提升学习效果。
Oct, 2019
本文研究了神经算法推理与图神经网络的最新进展,特别关注神经网络的动态规划以及范畴论和抽象代数,验证了它们之间的内在联系,得到在边缘任务上更坚实的 GNN 体系结构,并在 CLRS 算法推理基准测试中证明了实证结果。
Mar, 2022
本文介绍了 Persistent Message Passing (PMP) 机制,该机制为 GNN 的 latent representations 中加入了查询过去状态的能力,从而更好地支持时间依赖性数据结构的查询,允许 GNN 创建新节点来记录历史状态,并在动态时间范围查询上表现出色,具有优于覆盖状态的 GNN 的通用性。
Mar, 2021
本文提出了一种有效的记忆层,可以联合学习节点表示和减少图表达,进而构建基于此层的两个新图神经网络 MemGNN 和 GMN,可学习层次化图表示。实验结果表明,这些模型在九个图形分类和回归基准测试中实现了先进的结果,且表明学习到的表示可以对应于分子数据的化学特征。
Feb, 2020
本文提出了一种基于 partial ordering 的神经网络结构 --DAGNN,该结构在 DAG 数据集上的表现优于先前的 DAG 结构和通用图形结构。
Jan, 2021
图神经网络(GNNs)是分析图结构数据的新兴机器学习模型。本研究提出了一个高效的 ML 框架 PyGim,通过在实际的 PIM 系统中加速 GNNs,解决了 GNNs 中内存密集型核心所面临的数据移动瓶颈。通过提供混合 GNN 执行,我们证明 PyGim 在比特尔至强 CPU 上的性能平均提升了 3.04 倍,并实现了比 CPU 和 GPU 系统更高的资源利用率。该研究为软件、系统和硬件设计者提供了有价值的建议,并将开源 PyGim 以推动 PIM 系统在 GNNs 中的广泛应用。
Feb, 2024
本文介绍了图神经网络(GNNs)的设计管道,详细讨论了其各个组成部分的变体,对其应用进行了系统分类,并提出了四个开放性问题供未来研究。
Dec, 2018
该研究论文通过对 GNNs 的计算效率进行探讨,提供了该领域的回顾,包括对 GNN 的基本概念的简短教程以及不同算法变体的多个阶段中进行的操作的总结;同时,提供了对当前软件和硬件加速方案的深入分析,并提出了一个面向硬件和软件的、图形感知和通信为中心的 GNN 加速器的愿景。
Sep, 2020
提出了一种记忆增强图神经网络 (MA-GNN),用于解决顺序推荐系统中的挑战,包括建模短期和长期用户兴趣、有效建模项目共现模式等,模型在五个真实数据集上得到了验证并进行了比较。
Dec, 2019