图神经网络应该使用特征、边或两者皆有?
图神经网络在图数据上学习的支配方法中,普遍存在过拟合图结构的现象,本研究通过对不同图分布进行分析,提出了一种理论解释和图编辑方法,以减轻图神经网络对应该被忽略的图结构的过拟合问题,并在多个基准测试中验证了该方法的有效性。
Sep, 2023
该研究提出了 GNNExplainer 方法,能够为任何基于 GNN 的模型和任何基于图的机器学习任务提供可解释性的预测解释,该方法能够识别关键的子图结构和节点特征,并能够生成一致而简洁的解释。
Mar, 2019
本文研究了图神经网络的表达能力,发现其存在局限性。作者提出为每个节点添加随机特征,这样 GNN 就能够学习一些最优多项式时间近似算法,同时该方法方便与其他 GNN 模型结合使用。经实验证明,加入随机特征的 GNN 能够解决一些无法被传统的 GNN 模型解决的问题。
Feb, 2020
本研究旨在通过研究梯度下降训练中神经网络中的特征学习理论中图卷积的作用,提供了两层图卷积网络与两层卷积神经网络之间的信号学习和噪声记忆的不同表征,发现图卷积显着增强了对手 CNN 的良性过拟合的范围,并且在梯度下降训练后, GNNs 和 MLPs 在特征学习和泛化能力方面存在重大差异,这一结论在我们的实证模拟中得到了进一步证实。
Jun, 2023
提出了一种名为 Global-Local-GNN (GLGNN) 的方法,通过利用全局和局部信息以及节点标签和特征的学习,提高了节点分类 GNNs 的性能,并显示了全局信息利用对节点分类的重要性。
Jun, 2024
机器学习与图神经网络,尤其是使用图神经网络(GNN)的机器学习,在各个领域的图数据广泛应用中受到了广泛关注。然而,对于 GNN 的性质仍存在理论上的不完备性。最近的理论进展主要集中于阐明 GNN 的粗粒度表达能力,主要使用组合技巧。然而,这些研究与实践并不完全一致,特别是在理解使用随机一阶优化技术训练时 GNN 的泛化行为方面。在本文中,我们将论证图机器学习社区需要将关注点转向发展一个更加平衡的图机器学习理论,重点研究表达能力、泛化和优化的相互作用。
Feb, 2024
本研究对四种图神经网络架构及五种节点人工特征进行分析,应用于分类任务,并比较它们在不同隐藏层维度下的性能。结果表明,高计算能力的 GNN 架构与信息丰富的人工特征对于性能表现起到平衡重要作用。
Jan, 2024