本研究提出自动设计深层 GNN 的方法,其中添加了新型的跳跃连接以促进特征重用和缓解梯度消失问题,并允许进化算法在演化过程中增加 GNN 层数来生成更深的网络,在 Cora、Citeseer、Pubmed 和 PPI 数据集上实验表明,GNNs 的生成结果具有最先进的性能。
Nov, 2020
本研究对图神经网络进行深入探究,提出了解决深度学习中过度平滑问题的新方法,并通过实验证明了其在引文、合著和共同购买等领域的卓越表现。
Jul, 2020
本文提出了一种理论框架来分析图神经网络的表达能力和限制,并阐述了如何有效地捕捉不同的图结构。通过提出的一个简单的架构,实验验证了理论的发现,并取得了最先进的性能。
Oct, 2018
本文提出了一种基于树分解的图神经网络,可减轻不同层之间的特征平滑,并利用多跳依赖来聚合信息,实验结果表明其在 homophily 和 heterophily 网络的节点分类设置下有卓越的表现。
Aug, 2021
研究了图神经网络在泛化上的机制,建立了高概率边界和其对泛化差距和梯度的影响,得出结论和实验证据相符的新认识。
May, 2023
该论文提出了一种新的框架,使用基于节点度数的门控机制动态地调整图神经网络的层数,从而增强信息聚合的能力并减少过度平滑,通过实验验证该模型在多个数据集上表现良好。
May, 2022
这篇论文提出了 Nested Graph Neural Networks (NGNNs) 框架,通过将节点表示编码为子图而不是子树来表示整个图,从而比 1-WL 更强大地区分几乎所有 r 正则图,并且在基准数据集上表现出高度竞争性表现。
Oct, 2021
本文通过引入中间模型 PMLP,揭示了 GNN 的性能提升主要源于其本质上的泛化能力,而非原理层面上的增强表现力。同时,本文发现 PMLP 表现与 GNN 相当,但训练效率更高。该发现为解析 GNN 相关问题提供了新的视角。
Dec, 2022
该研究使用扩展图形传递信息来提出了一种名为 EGP 的图神经网络,以解决全图分类或回归任务中的挑战,同时避免病态行为和过度压缩等问题,为解决 GNN 中的过度压缩问题开辟了一条新途径。
Oct, 2022
本研究提出并验证了一种基于图神经网络的主动学习方法,应用于节点分类任务,其中通过节点特征传播和 K-Medoids 聚类完成样本的选取,并在四个基准数据集上实验进行验证,结果表明该方法优于其他基准方法。
Oct, 2019