图神经网络 (GNNs) 和欧几里德卷积神经网络 (CNNs) 的等变性对称性不同,本篇论文侧重于探讨 GNNs 的主动对称性,通过对信号在固定图上的支持进行学习,将近似对称性形式化为图粗化,提出了一个偏差 - 方差公式来量化损失表达性与学习估计的规则性之间的权衡,实验证明,选择比图自同构群大但小于全排列群的适当大的群可以达到最佳泛化性能。
Aug, 2023
本文提供了对(超)图数据的所有置换不变和等变线性层的表征,并展示了它们的维度,并计算出这些层的正交基,包括对多图数据的推广。同时,在简单的深度神经网络框架中应用这些新的线性层,可以获得比之前的不变性和等变性基础更好的表现,并且可以实现任何消息传递神经网络的近似。
Dec, 2018
本文介绍了一种新的模型来学习具有等变性的图神经网络,称为 EGNN,此方法不需要在中间层中计算昂贵的高阶表示,同时具有竞争力或更好的性能,在 3 维空间等变性上具有比现有方法更大的伸缩性,并在动态系统建模,图自编码器中的表征学习和预测分子性质方面证明了其有效性。
Feb, 2021
本研究提出了一种通过置换组捕捉相邻节点间的成对相关性的高效置换敏感聚合机制,证明我们的方法比 2-WL 图同构测试更强大且不逊于 3-WL 测试,并证明我们的方法可以实现线性采样复杂度。多个数据集的综合实验证明了我们模型的优越性。
May, 2022
通过引入新的图同构解决方案,我们设计了一类通用的置换等变图网络,这些架构与以前的架构不同,提供了表达能力和可扩展性之间的细粒度控制,并适应了图的稀疏性。在监督节点和图级分类和回归方案中,这些架构与标准高阶图网络相比计算时间大大缩短,同时在预测性能方面显着提高,而且与标准图神经网络和图内核架构相比也有很大的优势。
Mar, 2022
本文提出了一种将神经网络表示为参数计算图的方法,借助图神经网络和 transformers 来保持置换对称性,并展示了该方法在多个任务中的有效性。
Mar, 2024
本文提出了一个理论框架,可以比较图神经网络架构的表达能力,证明了实用 GNN 的第一近似保证,FGNN 被证明是最具表现力的架构之一,在 Quadratic Assignment Problem 中的应用表明 FGNN 能够比现有的基于谱、SDP 或其他 GNN 架构的算法表现得更好。
Jun, 2020
本文研究了一类具有单隐藏层的不变和等变网络,并证明了其新的普适性定理。首先,本文提出了一种以代数理论为基础的证明方式。其次,本文将这一结果扩展到等变网络中,该领域的理论研究相对较少。最后,本文的结果表明,相同的参数可以在具有不同规模的图上近似实现一定的函数。
May, 2019
提出了一种名为 PERM 的概率实体表示模型,用于知识图谱上的逻辑查询推理,以及在 COVID-19 药物复用案例研究中表现出显著的性能优势。
Oct, 2021
本研究通过引入 sigma 代数框架,将 GNN 的表现力和测试同构性的角度进行了比较,证明了不同类型的 GNN 的表现力在确定的条件下是等价的,提出了一种新的结构 Ring-GNN,该结构成功地区分了具有相同度数的非同构正则图,并在现实世界数据集上取得了良好的性能。