图神经网络应该使用特征、边或两者皆有?
本文提出了一种理论框架来分析图神经网络的表达能力和限制,并阐述了如何有效地捕捉不同的图结构。通过提出的一个简单的架构,实验验证了理论的发现,并取得了最先进的性能。
Oct, 2018
本文探讨了现有的 Graph Neural Networks(GNN)模型评估策略的局限性,通过对四个知名 GNN 模型进行彻底的实证评估,发现只有在公平的条件下比较各种模型的性能才是合理的,简单的 GNN 架构通过超参数和训练程序的公平调整也可以胜过复杂的架构。
Nov, 2018
通过对图神经网络的线性化,本文将其拆成了基于图滤波和基于集合函数的两个部分,并发现在图滤波时采用线性结构,而在集合函数时采用非线性结构,得到了同样好的结果,从而提出了更简单且高效的建模方案。
May, 2019
该论文提出了一种名为G-GNNs的新型模型,通过无监督预训练获取节点的全局结构和属性特征,然后利用这些特征和原始网络属性,提出了一种GNN的并行框架以从这些特征中学习不同的方面。该模型的学习方法可应用于平面图和属性图,并通过 extensive experiments 在三个标准评估图上表现优异,特别地,在属性图学习方面,G-GNNs在Cora(84.31%)和Pubmed(80.95%)上建立了新的基准记录。
Oct, 2019
本文提出EdgeNet框架,将现有的图卷积神经网络(GCNNs)和图注意力网络(GATs)统一起来,使得同一问题可以使用不同的GNN结构来解决,并且指导和优化各种GNNs的性能和实现。
Jan, 2020
本研究提出了一种特征选择Graph Neural Network(FSGNN)模型,通过解耦节点特征聚合步骤和深度,使用softmax作为聚合的特征的正则化器和L2规范化技术,实现了对不同聚合的特征的作用进行实证分析,最终在9个基准数据集上创建了一种简单而浅的模型,取得了比现有GNN模型更好的性能。
Nov, 2021
本文研究了四种流行的图神经网络模型,探究了在没有节点属性可用的情况下这些模型所学习的节点表示中纯粹编码的图的哪些属性,并表明其中两个将所有节点嵌入同一特征向量中,而另外两个生成与输入图上的行走数量有关的表示。值得注意的是,在图的某一层 $k>1$,结构不相似的节点如果具有相同长度的行走次数,则可以具有相似的表示。我们在真实数据集上经验证实了我们的理论发现。
Apr, 2023
本文总结和分类大规模图神经网络解决方案的重要方法和技术,并建立了图神经网络系统、图处理系统和深度学习系统之间的联系。
May, 2023
本研究针对图神经网络(GNNs)在表示与优化之间的差异提出了新的见解,指出现有的等价性研究忽视了优化问题。通过理论证明和实验验证,揭示了GNNs在图分类任务中存在的隐含归纳偏差,并展示了如何通过基于注意力的架构融入领域知识以更有效地识别一致子图。
Aug, 2024