图变换网络
本文提出了一种理论框架来分析图神经网络的表达能力和限制,并阐述了如何有效地捕捉不同的图结构。通过提出的一个简单的架构,实验验证了理论的发现,并取得了最先进的性能。
Oct, 2018
本文提出了基于图卷积神经网络的Graph Learning Network模型,用于解决社区检测、节点分类、链路预测等任务,并能够学习节点嵌入和结构预测函数。该模型能够递归地提高预测结果和嵌入质量。
May, 2019
本文提出了基于结构感知(Transformers)的新自注意力机制和子图表示方法,以提高图表示学习和预测的性能,相关模型在五个图预测基准测试中达到了最优结果。
Feb, 2022
我们提出了GCNH,是一种简单但有效的GNN架构,适用于异构和同质图形,并使用一个学习的重要系数平衡中心节点和邻域的贡献,可以解决异构图上性能问题和过度平滑问题。
Apr, 2023
提出一种新的变压器体系结构,名为Graph Propagation Transformer(GPTrans),利用一种名为Graph Propagation Attention(GPA)的新注意机制,在构建变压器块中的注意模块时,充分考虑了图形中节点和边的信息传递,并在多个基准数据集上验证了其优于许多先进的变压器的性能。
May, 2023
本文提出了一种基于新的所有对消息传递机制和核化Gumbel-Softmax算子的节点分类网络,名叫NodeFormer,特别针对处理大规模图中的长距离依赖、边的不完整性等问题提出了解决方案,并在多项实验中验证了其有效性。
Jun, 2023
在这篇论文中,我们提出了一种名为TransGNN的新模型,其中Transformer层和GNN层交替使用以相互改进。我们利用Transformer来聚合更相关的节点信息以改善GNNs的消息传递,并利用位置编码和GNN层将图结构融入节点属性中,改善Transformer在图数据中的表现。通过理论证明,我们证明了TransGNN相对于仅具有额外线性复杂度的GNNs更具表达力。在八个数据集上的实验证实了TransGNN在节点和图分类任务上的有效性。
Aug, 2023
提出了一种结合GNN和Transformer的新框架,利用GNN的局部信息汇聚和Transformer的全局信息建模能力解决过度平滑问题,构建了GTC体系结构,通过对跨视图信息进行自我监督的对比学习任务实现异构图形表示学习。
Mar, 2024
在本研究中,我们对三种经典的图神经网络模型(GCN、GAT和GraphSAGE)与图转换器(GTs)进行了全面的实证分析,发现之前对GTs的声称过于夸大,而稍作超参数调整后,这些经典GNN模型在17个多样化数据集中达到了最新GTs的性能水平甚至超过。此外,我们还进行了详细的消融研究,探究了归一化、丢弃、残差连接、网络深度和知识传递模式等各种GNN配置对节点分类性能的影响。通过我们的研究,我们旨在推动图机器学习领域对实证功效提出更高的标准,鼓励更准确的模型能力比较和评估。
Jun, 2024
图转换器是机器学习中的一个新兴领域,提供了一种针对图结构数据的神经网络模型。本文调研了图转换器研究的最新进展和挑战,从建立概念开始,探索了图转换器的设计观点,进一步提出了基于深度、可扩展性和预训练策略的图转换器分类法,并总结了开发有效图转换器模型的关键原则。除了技术分析,还讨论了图转换器模型在节点级、边级和图级任务中的应用以及在其他应用场景中的潜力。最后,这篇论文还指出了领域中的一些挑战,如可扩展性和效率、泛化能力和鲁棒性、可解释性和可解释性、动态和复杂图形、数据质量和多样性,并为图转换器研究的未来方向进行了展望。
Jul, 2024