隐式图神经网络
本文介绍了一种名为 Implicit GNN 的理论框架,能够通过只迭代网络一次但起始状态随机遮蔽的方式来优化无限传播的长距离标签,并将这种改进扩展到了复杂网络和大规模图上,实验结果证明其性能优于其他方法。
Nov, 2022
Implicit Dynamic Graph Neural Network (IDGNN) 是一种针对动态图的新型隐式神经网络模型,通过提出一个等价的双层优化问题和一种高效的单循环训练算法来克服计算上的困难,以在分类和回归任务中展现出优于现有模型的性能,并在性能保持的同时获得高达 1600 倍的加速。
Jun, 2024
本篇论文提出了一种使用无限深度的图神经网络模型 ——Efficient Infinite-Depth Graph Neural Networks (EIGNN) 来有效捕获底层图中的长程依赖性,同时可以使用特征值分解来实现更有效的计算。实验结果表明,该模型在捕获长程依赖性方面比现有模型表现更好,并且在不同噪声和对节点特征的对抗扰动下表现更为鲁棒。
Feb, 2022
本文介绍和证明了隐式图神经网络存在的两个弱点:他们的限制表达能力由于他们对捕获长程依赖性的有效范围有限以及他们无法在多个分辨率上对图进行多尺度信息建模。为了缓解这些弱点,我们提出了一种带有隐式层次的多尺度图神经网络 (MGNNI),它能够模拟图的多尺度结构,具有更广泛的有效范围,能够捕获长程依赖性,并且在节点分类和图分类方面,我们进行了全面的实验来表明 MGNNI 优于代表性基准,并具有更好的多尺度建模和捕获长程依赖性的能力。
Oct, 2022
IGNNet 是一个解释性图神经网络,用于处理表格数据,通过表征学习的方式捕获特征交互,大规模的实证研究证明 IGNNet 与 XGBoost、Random Forests 和 TabNet 等最先进的机器学习算法在处理表格数据时表现相当,同时 IGNNet 的解释与特征的 Shapley 值一致而无需额外的计算开销。
Aug, 2023
针对图状数据的学习问题,该研究提出了一种基于递归架构的图神经网络算法,其关键在于使用跳过连接、状态规则化和边缘卷积等三种技术以实现对小型图问题的端到端学习及大规模图问题的推广。实验证明该算法具有较高的推广能力。
Dec, 2022
本文提出了一种理论框架来分析图神经网络的表达能力和限制,并阐述了如何有效地捕捉不同的图结构。通过提出的一个简单的架构,实验验证了理论的发现,并取得了最先进的性能。
Oct, 2018
本研究提出自动设计深层 GNN 的方法,其中添加了新型的跳跃连接以促进特征重用和缓解梯度消失问题,并允许进化算法在演化过程中增加 GNN 层数来生成更深的网络,在 Cora、Citeseer、Pubmed 和 PPI 数据集上实验表明,GNNs 的生成结果具有最先进的性能。
Nov, 2020