情境化信息强化图表示
本研究关注图神经网络的本质问题:无法仅仅依靠局部信息计算多个重要的图形特征;同时提出了信息传递图神经网络的第一个数据相关泛化界限,这一分析专门考虑了 GNN 局部置换不变性,该边界比现有的基于 VC 维度的 GNN 保证要紧密,与循环神经网络的 Rademacher 界限相当。
Feb, 2020
本文提出了一种新的基于几何学聚合的 aggregation 方案,包含三个模块:节点嵌入,结构化邻域和双层聚合,并将其实现到图卷积网络中,命名为 Geom-GCN。在多个开放数据集上的实验结果表明,Proposed Geom-GCN 已经达到了当前状态的最佳性能。
Feb, 2020
本文提出了一种理论框架来分析图神经网络的表达能力和限制,并阐述了如何有效地捕捉不同的图结构。通过提出的一个简单的架构,实验验证了理论的发现,并取得了最先进的性能。
Oct, 2018
本文研究了四种流行的图神经网络模型,探究了在没有节点属性可用的情况下这些模型所学习的节点表示中纯粹编码的图的哪些属性,并表明其中两个将所有节点嵌入同一特征向量中,而另外两个生成与输入图上的行走数量有关的表示。值得注意的是,在图的某一层 $k>1$,结构不相似的节点如果具有相同长度的行走次数,则可以具有相似的表示。我们在真实数据集上经验证实了我们的理论发现。
Apr, 2023
提出了一种新的 Hierarchical Message-passing Graph Neural Networks 框架,通过生成 hierarchical structure,并采用 inra- 和 inter-level propagation manners 以及 hierarchical community detection algorithm,实现了对长程信息的高效访问,从而在节点分类、社区检测等任务中优于现有基于 GNN 的模型。
Sep, 2020
本研究旨在通过研究梯度下降训练中神经网络中的特征学习理论中图卷积的作用,提供了两层图卷积网络与两层卷积神经网络之间的信号学习和噪声记忆的不同表征,发现图卷积显着增强了对手 CNN 的良性过拟合的范围,并且在梯度下降训练后, GNNs 和 MLPs 在特征学习和泛化能力方面存在重大差异,这一结论在我们的实证模拟中得到了进一步证实。
Jun, 2023
本文提出了一种基于 gossip 通信和 mutual attention 机制的 GOAT 算法,无需任何附加文本特征,仅仅通过图的结构就能提取高质量的上下文敏感节点表示。我们使用 6 个真实数据集对 GOAT 进行了比较,并与 12 个流行和最先进的基线进行了比较,发现 GOAT 在链接预测和节点聚类方面的表现均优于其他方法,相对最佳性能方法的提高率达到 12% 和 19%。
Mar, 2020
本篇论文提出了一种新型的图卷积神经网络 Deformable GCNs,它可以在多个潜在空间适应性地执行卷积操作,并捕获节点之间的短 / 长距离依赖关系,从而处理异构性,并在六个异质性图数据集中实现节点分类任务的最佳性能。
Dec, 2021
在自然语言理解领域中,神经模型和图形意义表达(GMR)的交叉点仍然是一个引人注目的研究领域。本文通过引入 DAGNN-plus,一种简单且参数高效的神经架构,将上下文表示学习与结构信息传播解耦,从而填补 GMR 的确切影响的空白。通过与各种序列编码器和 GMRs 配对,该架构为英文和中文的两个数据集上进行系统实验提供了基础。实证分析使用了四种不同的图形形式和九个解析器。结果对 GMRs 的理解提供了细致入微的认识,显示出四个数据集中有三个的改进,特别是依靠高度准确的解析器的英文比中文更受青睐。有趣的是,与一般领域数据集相比,GMRs 对文学领域数据集的有效性较低。这些发现为更加明智地设计 GMRs 和解析器以提高关系分类奠定了基础,预计对自然语言理解研究的未来发展产生实质性影响。
Oct, 2023
该研究提出了一种名为 SimP-GCN 的新框架,它可以有效地保留节点相似性,同时利用图结构进行图表示学习,并使用自监督学习以显式捕获节点之间的复杂特征相似性和相异性关系。该框架在多个基准数据集上取得了比代表性基线更好的效果。
Nov, 2020