GTNet:基于树的深度图神经网络架构
本论文提出了一种名为 GTNs 的图转换器网络,能够在图上进行节点表示的学习,同时生成新的图结构以及识别原始图上未连接点之间有用的连接。实验表明,GTNs 有效地生成新的图结构,通过卷积在新图上产生具有强大表现力的节点表示,并在三个基准节点分类任务中取得了最佳表现。
Nov, 2019
生成模型的新类别 - 生成拓扑网络(GTNs)使用简单的监督学习方法并基于拓扑理论进行确定性训练。在 MNIST、celebA 和 Hands and Palm Images 数据集中展示了 GTNs 的优势,并通过 GTNs 的理论提供了改进性能的培训方法。
Jun, 2024
本文提出新颖的神经网络结构图注意力网络(GATs),利用掩码的自我关注层处理图结构化数据的缺点,有效提出解决谱学派图神经网络中的几个关键挑战的方法,并在四个数据集上取得了最先进的结果。
Oct, 2017
本研究提出自动设计深层 GNN 的方法,其中添加了新型的跳跃连接以促进特征重用和缓解梯度消失问题,并允许进化算法在演化过程中增加 GNN 层数来生成更深的网络,在 Cora、Citeseer、Pubmed 和 PPI 数据集上实验表明,GNNs 的生成结果具有最先进的性能。
Nov, 2020
在本研究中,我们对三种经典的图神经网络模型(GCN、GAT 和 GraphSAGE)与图转换器(GTs)进行了全面的实证分析,发现之前对 GTs 的声称过于夸大,而稍作超参数调整后,这些经典 GNN 模型在 17 个多样化数据集中达到了最新 GTs 的性能水平甚至超过。此外,我们还进行了详细的消融研究,探究了归一化、丢弃、残差连接、网络深度和知识传递模式等各种 GNN 配置对节点分类性能的影响。通过我们的研究,我们旨在推动图机器学习领域对实证功效提出更高的标准,鼓励更准确的模型能力比较和评估。
Jun, 2024
该文提出了一种新的网络架构 —— 门控注意力网络(GaAN),用于学习图形。该架构使用卷积子网络来控制每个注意力头的重要性,证明了其在归纳节点分类问题和交通速度预测问题上的有效性,并在三个真实世界数据集上取得了最先进的结果。
Mar, 2018
本文通过系统性实验评估关注网络的层数与性能之间的关系,发现残差连接可以解决 Oversquashing 现象,提高 GAT 模型的性能。因此,我们提出了 ADGAT 变体模型,可根据图的稀疏性自适应选择层数,从而显着提高了模型的性能。
Jan, 2023
本论文通过介绍生成性教学网络 (Generative Teaching Networks, GTNs) 和对其在监督学习和神经架构搜索领域的应用实例说明了利用算法自动生成训练数据和学习环境帮助 AI 代理快速学习的可能性以及潜在影响,并提出了一些有趣的研究方向。
Dec, 2019
本文提出的 Graph Neural Architecture Search 可以自动化搜索图神经网络的最佳深度和最佳的消息传递机制,以达到优越的图任务结果。
Mar, 2021