从关系池化到子图 GNN:更具表现力的图神经网络的通用框架
本文提供了一种统一的方法来研究增强次图 GNN 的架构,包括理论框架和对子图增强 GNN 可表达性的已知结果进行扩展,同时研究了三种用于学习采样子图的方法,通过实验证明了数据驱动架构可以提高标准基准数据集的预测精度,同时减少计算时间。
Jun, 2022
本文提出局部 Weisfeiler-Leman(WL)算法以提高表达能力和降低计算复杂度,并解决所有 k 的局部 k-WL 的子图计数问题。研究证明,本地 k-WL 可以表达更多模式,但在表达能力上最多与 (k + 1) -WL 一样,比应用于整个图的 k-WL 更具有时间和空间效率。用局部 k-WL 等效的两个图的子图和诱导子图的计数是不变的。该算法也引入了局部和递归的 Layer k-WL 以及一个可扩展片段技术,可用于任意 k,以保证使用仅 1-WL 的确切计数,同时比 Papp 和 Wattenhofer(2022a)提到的 GNN 层次更具表达能力。
May, 2023
本文提出了一种新的图神经网络的框架 $k$-FWL+,并探究其表达能力及其设计空间的灵活性,使用此框架设计的 N2-GNN 在 ZINC-Subset 和 ZINC-Full 两个数据集上显示了比之前最先进的结果更好的性能。
Jun, 2023
本文提出了一种名为 Union Subgraph Neural Network 的图神经网络模型,通过注入从新类型的子结构中提取的邻居连接信息以有效地编码高阶连接性,该模型被证明在区分非同构图方面比 1-WL 更强大,并且在 17 个基准测试中表现出优异的性能,尤其是在现有模型的局部编码的基础上注入我们的局部编码,可以最多提高 11.09% 的性能。
May, 2023
本文研究图神经网络中的池化操作的表现力问题,并介绍了一种可以全面维持 message-passing 层的表现力的池化操作设计原则,进而通过实验验证其在图同构检测上的效果。
Apr, 2023
本文探讨了图同构、图神经网络的表达能力及其应用。作者提出了 k - 阶不变 / 本质等变图神经网络,并将此网络应用于图分类的任务中。实验表明,模型在数据集上表现的优异,证明了本文所提出的模型是有实用价值的。
May, 2019
增强 Weisfeiler-Leman 算法和消息传递图神经网络的表达力的关系对于改进概括能力的条件是不明确的。通过引入子图信息和经典边界理论来探索这种表达力增强和概括能力改善的条件,并提出具有可证明概括性质的基于 $1$-WL 的核和消息传递图神经网络架构的变体。
Feb, 2024
提出一种基于串联的图卷积机制和一种新颖的图池模块,用于增强识别非同构子图的区别能力,并且提出一种新颖的子图模式 GNN(SPGNN)架构,实验结果表明该方法在图分类方面具有与最先进的图核心和其他 GNN 方法相媲美的表现。
Apr, 2024
本研究通过开发一种新型的嵌入逻辑公式的结构感知神经网络架构,成功地解决了图形化方法在逻辑公式表示时的局限性,并在两个标准数据集上进行了实证研究,取得了最先进的性能,为深度学习与自动定理证明的融合提供了新的思路。
Nov, 2019