边缘上的 Weisfeiler-Leman:当更多的表达能力很重要
本文探讨了图同构、图神经网络的表达能力及其应用。作者提出了 k - 阶不变 / 本质等变图神经网络,并将此网络应用于图分类的任务中。实验表明,模型在数据集上表现的优异,证明了本文所提出的模型是有实用价值的。
May, 2019
本文提出一种基于 Weisfeiler-Leman 算法和神经网络架构的图核方法,能够处理高阶交互,同时具有表达能力、可扩展性和防止过拟合等优点。实验表明,与原算法相比,局部算法(包括核和神经体系结构)具有快速计算时间和防止过拟合的优势,并且在多个基准数据集上实现了最新的图分类技术成果,同时展现了在大规模分子回归任务上的性能。
Apr, 2019
揭示了从图形理论和基准审计中发掘 $k$-WL 不保证等距、可能与现实世界的图形任务无关,并且可能无法促进泛化或可靠性,同时提出了基于基准测试的表达能力的外延定义和测量,为构建此类基准测试提供了指导性问题,这对于进展图形机器学习至关重要。
Jul, 2023
本短文介绍了几个 Weisfeiler-Lehman 算法的变体,这些算法用于衡量图神经网络的表达能力, 并解释了 WL 和 folklore-WL 公式之间的区别。
Jan, 2022
本文研究了图神经网络以及其理论背景并将其与 $1$-WL 算法相对比,提出了 $k$-dimensional GNNs 这一扩展方法,证明了它在处理社交网络和分子图像等高阶结构方面的有效性。
Oct, 2018
本文提出了一种新的图神经网络的框架 $k$-FWL+,并探究其表达能力及其设计空间的灵活性,使用此框架设计的 N2-GNN 在 ZINC-Subset 和 ZINC-Full 两个数据集上显示了比之前最先进的结果更好的性能。
Jun, 2023
本文通过扩展 $2$-WL 测试,研究了图神经网络在处理包含位置和速度的点云数据方面的表达能力,并建立了能够处理位置 - 速度对、具有置换和刚体运动等等变换性质的函数的 WeLNet 体系结构,并通过实验验证了它在动力学任务和分子构象生成任务上取得了新的最先进结果。
Feb, 2024
本文提出局部 Weisfeiler-Leman(WL)算法以提高表达能力和降低计算复杂度,并解决所有 k 的局部 k-WL 的子图计数问题。研究证明,本地 k-WL 可以表达更多模式,但在表达能力上最多与 (k + 1) -WL 一样,比应用于整个图的 k-WL 更具有时间和空间效率。用局部 k-WL 等效的两个图的子图和诱导子图的计数是不变的。该算法也引入了局部和递归的 Layer k-WL 以及一个可扩展片段技术,可用于任意 k,以保证使用仅 1-WL 的确切计数,同时比 Papp 和 Wattenhofer(2022a)提到的 GNN 层次更具表达能力。
May, 2023
本研究提出了符合物理对称性的几何图卷积神经网络测试 GWL,并使用 GWL 研究了符合物理对称性的几何图卷积神经网络的表达能力,发现等变层扩展了局部邻域之外的几何信息,高阶张量和标量化使几何图卷积神经网络具有最大的表达能力。
Jan, 2023