扩张图传播
通过在边上交换信息,图神经网络对图结构化数据进行操作。然而,信息过于压缩问题限制了这种信息传递范式,可能导致信息丢失。为了解决这个问题,最新的研究探索使用低直径高连通度的稀疏图 —— 扩展图来进行信息传递。然而,现有的扩展图传播方法只考虑了两两交互,忽略了复杂数据中的高阶结构。为了探索在利用扩展图的同时捕捉这些高阶相关性的好处,我们引入了高阶扩展图传播。我们提出了两种构建二分扩展图的方法,并在合成数据集和真实世界数据集上评估了其性能。
Nov, 2023
提出一种用于分析过度压缩的基于信息收缩的框架,此分析是基于 von Neumann 的可靠计算模型的,该计算模型认为在噪声计算图中过度压缩会导致信号闷灭。同时,本研究提出了一种基于重连的算法来缓解过度压缩问题。
Aug, 2022
本文介绍了一种名为 GBP 的可扩展的 GNN,使用本地化的双向传播过程来实现高效的训练与测试,理论分析表明其是第一种在预计算和训练阶段都实现了次线性时间复杂度的方法,并在大规模图上取得了最先进的性能。
Oct, 2020
本文提出一种基于双层优化的方法,通过直接学习个性化 PageRank 传播矩阵以及下游半监督节点分类并同时进行学习,学习最佳的图结构,并探索低秩逼近模型以进一步降低时间复杂度。实证评估表明,所提出的模型在所有基线方法中具有更高的有效性和鲁棒性。
May, 2022
该研究论文研究了学习图神经网络(GNNs)的信息传播策略的问题。为了克服图神经网络面临的传播策略定义问题,研究人员提出了一种学习传播框架,可以明确学习不同节点和各种类型图的易于理解和个性化的传播策略。通过对多种图基准进行广泛实验,结果表明该方法相较于其他最先进的方法具有显著的提高和在 GNNs 中能够有效地学习个性化和易于理解的传播策略。
Oct, 2023
本研究提出了新的 Ego-GNN 方法,通过增加在每个节点周围子图中定义的信息来扩展 GNN 的消息传递操作,并证明了 Ego-GNN 比标准消息传递 GNN 更强大,能够识别封闭三角形,从而在绝大多数现实世界的图中更有效地进行节点分类。
Jul, 2021
大规模图的实时推断对于图神经网络 (GNNs) 提出了一项重大挑战,但我们提出了一种在线传播框架和两种新的节点自适应传播方法来加速可扩展 GNNs 的推断过程,并通过简单的超参数灵活管理准确性和时延之间的平衡。此外,我们进一步提出了 Inception Distillation 来弥补推断准确性损失,实验结果显示我们的方法在精确性和效率上优于现有的图推断加速方法。
Oct, 2023