K 跳消息传递图神经网络的能力有多大
本文介绍一种更有效的图神经网络 ——k-hop GNN,该网络可以从一个节点的 k - 跳邻域中汇总信息并识别基本图属性,可用于节点分类和图分类任务,并在标准数据集上取得较好或可比的表现
Jul, 2019
本研究探讨了基于图神经网络的 K-hop 传递模型的局限性,并提出了子结构编码函数,以提升其表达能力,并注入情境化子结构信息增强表达能力。实证结果表明,该方法在多个数据集上取得了新的最优表现或可比较的性能。
Jun, 2024
提出了一种基于 1-WL 和邻居之间的边缘考虑的 NC-1-WL 算法,实现了图同构测试,提高了图神经网络的可表达性;进一步提出了 NC-GNN 框架作为 NC-1-WL 的可微分神经版本,能够在各种基准测试中实现出色的性能。
Jun, 2022
使用张量语言以及 Weisfeiler-Leman 测试为模型分析提供了一种优雅的方法,通过索引和求和嵌套深度的简单分析得到了对 GNN 的分离能力的边界和某些类的普适性结果,并提供了一些提高 GNN 分离能力的见解。
Apr, 2022
本文探讨了图同构、图神经网络的表达能力及其应用。作者提出了 k - 阶不变 / 本质等变图神经网络,并将此网络应用于图分类的任务中。实验表明,模型在数据集上表现的优异,证明了本文所提出的模型是有实用价值的。
May, 2019
本文提出了一种新的图神经网络的框架 $k$-FWL+,并探究其表达能力及其设计空间的灵活性,使用此框架设计的 N2-GNN 在 ZINC-Subset 和 ZINC-Full 两个数据集上显示了比之前最先进的结果更好的性能。
Jun, 2023
本文将图上定义的神经网络呈现为信息传递神经网络(MPNN),通过研究不同类别的这些模型的区别能力,探讨它们的识别能力,研究传统的图神经网络和卷积图神经网络对顶点进行特征标注的能力的界限,并使用 Weisfeiler-Lehman 算法对 MPNNs 的区分能力进行了上下界的研究。
Apr, 2020
本文研究了基于图传递的神经网络(MPNNs),通过在频域设计非线性的自定义滤波器函数并使用任意大的感受野进行掩膜,其理论上比 1-WL 测试显得更加强大,且实际上具有与现有 3-WL 模型同样的性能,同时仍保持局部化。通过本方法可以实现 LOD 更新机制和输出谱复杂性,从而在许多下游任务中达到先进水平。
Jun, 2021
本文提出了一种称为 GNN-AK 的框架,旨在将任何 MPNN 提升为具有更高表达能力的模型,通过扩展 MPNN 中的局部聚合算法到更一般的子图模式,以提高实用性能,同时维持可扩展性;这种方法被证明比常见的 Weisfeiler-Lehman 同构测试更具表达能力,可以用于多个图机器学习任务中.
Oct, 2021