本文提出了一种基于 partial ordering 的神经网络结构 --DAGNN,该结构在 DAG 数据集上的表现优于先前的 DAG 结构和通用图形结构。
Jan, 2021
本研究以 k-hop 子图聚合为基础,提出了一种新的 GNN 表达能力分析视角和名为 SDF 的基于采样的节点级剩余模块,理论推导和大量实验证明 SDF 模块比以前的方法具有更高的表达能力和更高的效率。
May, 2023
本文提出 EdgeNet 框架,将现有的图卷积神经网络(GCNNs)和图注意力网络(GATs)统一起来,使得同一问题可以使用不同的 GNN 结构来解决,并且指导和优化各种 GNNs 的性能和实现。
Jan, 2020
这篇论文提出了 Nested Graph Neural Networks (NGNNs) 框架,通过将节点表示编码为子图而不是子树来表示整个图,从而比 1-WL 更强大地区分几乎所有 r 正则图,并且在基准数据集上表现出高度竞争性表现。
Oct, 2021
本研究提出自动设计深层 GNN 的方法,其中添加了新型的跳跃连接以促进特征重用和缓解梯度消失问题,并允许进化算法在演化过程中增加 GNN 层数来生成更深的网络,在 Cora、Citeseer、Pubmed 和 PPI 数据集上实验表明,GNNs 的生成结果具有最先进的性能。
Nov, 2020
本文提出了一种基于长短距离注意力模型的图神经网络框架,用于解决标注有限以及捕捉图中长距离关系的问题,并应用于 PU 学习与节点分类任务中,实验结果证明了算法的有效性。
Mar, 2021
我们提出了一个新的模型无关的图神经网络(MaGNet)框架,能够顺序地集成不同顺序的信息,从高阶邻居中提取知识,并通过识别有影响力的紧凑图结构来提供有意义、可解释的结果。理论上,我们通过经验 Rademacher 复杂性建立了 MaGNet 的泛化误差界,并展示了它在表示逐层邻域混合方面的能力。使用模拟数据进行了全面的数值研究,证明了 MaGNet 相对于几种最先进的替代方法的卓越性能。此外,我们将 MaGNet 应用于一个从脑活动数据中提取关键信息的实际案例研究,从而突显了它在推动科学研究方面的有效性。
Sep, 2023
本篇论文针对图结构数据的表征学习中的聚合操作进行研究,探究 GCN、GAT、PPNP、APPNP 等 GNN 模型的聚合过程与图像去噪问题之间的通用性,进而提出统一图神经网络框架 UGNN,并基于此开发了 ADA-UGNN 模型,通过实验验证了其在自适应平滑性的图中的有效性。
Oct, 2020
本文研究了图神经网络的可扩展性和推广性,并提出了灵活的 GNNs 框架,通过多种节点更新函数和内部循环优化,使网络能够灵活适应新图并在多项推理任务中提高泛化能力。
Sep, 2022
提出了一种新的 Hierarchical Message-passing Graph Neural Networks 框架,通过生成 hierarchical structure,并采用 inra- 和 inter-level propagation manners 以及 hierarchical community detection algorithm,实现了对长程信息的高效访问,从而在节点分类、社区检测等任务中优于现有基于 GNN 的模型。
Sep, 2020