该论文提出了一种新的框架,使用基于节点度数的门控机制动态地调整图神经网络的层数,从而增强信息聚合的能力并减少过度平滑,通过实验验证该模型在多个数据集上表现良好。
May, 2022
利用子图构建长距离依赖关系来改善低数据环境下节点分类的性能,并提出了一种名为 Muse 的自监督学习框架,通过联合捕获局部结构和长距离依赖关系,提高了图中节点的表示表达能力。
Apr, 2024
本篇论文提出了一种新的图形神经网络 GL-GNN,通过学习关系的图形和选择重要数据特征以解决未知图形、节点具有嘈杂特征和图形含有噪声连接等三个问题,并在多个数据集上与基线方法进行对比, 能够选择重要特征和图形边缘。
Oct, 2022
本文提出了一种基于集体学习和自监督学习的蒙特卡洛采样框架,用于将当前的 GNN 模型进行增强以实现节点分类,实验结果表明,该方法在五个真实世界的网络数据集上都取得显著的性能提升。
Mar, 2020
本文提出了一种在图上进行终身学习的增量训练方法,通过 $k$- 邻居时间差的方法解决历史数据的差异,并在五种典型的 GNN 体系结构上进行训练,结果表明相对于对完整图数据的训练,只需要保留至多 50% 的 GNN 感受野,就能保证至少 95% 的准确度,并确认了随着显式知识变少,隐式知识变得更为重要。
Jun, 2020
该研究提出了一种以非局部聚合为基础的简单而有效的图神经网络框架,采用高效的注意力引导排序,用于解决不同类型的图数据集,实验结果表明,在效率和模型性能方面,该方法显著优于先前针对不同类型图案的最先进方法。
May, 2020
本文提出了一种基于 Graph Neural Networks 和 graph few-shot learning 算法的半监督节点分类方法,通过传递先前学习的辅助图中的结构知识来改进目标图上的分类精度,并在四个真实世界图数据集上的实验和消融研究中证明了该模型的有效性。
Oct, 2019
提出了一种名为 Global-Local-GNN (GLGNN) 的方法,通过利用全局和局部信息以及节点标签和特征的学习,提高了节点分类 GNNs 的性能,并显示了全局信息利用对节点分类的重要性。
Jun, 2024
本文介绍了一种名为 Implicit GNN 的理论框架,能够通过只迭代网络一次但起始状态随机遮蔽的方式来优化无限传播的长距离标签,并将这种改进扩展到了复杂网络和大规模图上,实验结果证明其性能优于其他方法。
Nov, 2022
本文介绍了图神经网络(GNNs)的设计管道,详细讨论了其各个组成部分的变体,对其应用进行了系统分类,并提出了四个开放性问题供未来研究。
Dec, 2018