基于节点转移概率的消息传递和DropNode正则化的图卷积神经网络
本文研究机器学习领域的图半监督学习,提出了基于图卷积网络的深度学习方法,解决了图卷积网络机制不清晰及需要大量标注数据的问题,并针对浅层结构的限制提出了弱监督训练的方法。经过广泛实验验证,研究结果具有实际应用价值。
Jan, 2018
该论文提出了DropEdge技术来解决深层图卷积网络在节点分类中的过拟合和过度平滑问题。DropEdge技术通过随机在每个训练迭代中移除一定数量的边缘节点来进行数据扩充和信息传递减少,旨在提高广义化效果和模型收敛速度。该技术还可以与其他多个骨干模型一起使用,使得在各种浅层和深层图卷积网络中都能一致提高模型的性能表现。
Jul, 2019
本研究分析了GCN、GCN with bias、ResGCN和APPNP模型的节点特征收敛过程,并提出了DropEdge来缓解过平滑问题,其在模拟数据和多个真实基准测试上均表现出显著性能提升。
Aug, 2020
本文从优化的角度解释了当前的图卷积操作存在的过度平滑问题,并引入了两个衡量节点级任务上过度平滑的度量标准,提出了一种新的卷积核GCN+,并在真实的数据集上证明了其在节点分类任务上的优秀性能表现。
Sep, 2020
本文从标签传播的角度探索了解耦后的图卷积网络,证明其本质上与两步标签传播是一致的,并揭示了其有效性,提出了一种新的标签传播方法,Propagation then Training Adaptively (PTA),通过动态自适应加权策略克服了解耦后的GCN的缺陷。该方法在四个基准数据集上得到经验证明优于现有方法。
Oct, 2020
通过对连续图扩散的角度解剖了线性GCNs的特征传播步骤,分析了为什么线性GCN不能从更多的传播步骤中受益。随后,我们提出解耦的图卷积(DGC),分离终端时间和特征传播步骤,使其更灵活,能够利用非常多的特征传播步骤。实验表明,我们提出的DGC显著改善了线性GCNs,并使它们能够与许多现代非线性GCNs的变体竞争。
Feb, 2021
GND-Nets, a new graph neural network that exploits local and global neighborhood information, is proposed to mitigate the over-smoothing and under-smoothing problems of Graph Convolutional Networks, using a new graph diffusion method called neural diffusions, which integrate neural networks into the conventional linear and nonlinear graph diffusions.
Jan, 2022
本研究提出了一种Alternating Graph-regularized Neural Network (AGNN)模型,其中包括Graph Convolutional Layer (GCL)和Graph Embedding Layer (GEL)。GEL通过包含拉普拉斯嵌入项的图正则化优化导出,可以通过从低阶特征空间定期投影到高阶空间来缓解过度平滑问题。通过改进的Adaboost策略聚合来自每一层的输出,并探索多跳邻居的集成嵌入,评估表明,在比较某些多层或多阶图神经网络的性能基础上,AGNN比现有的最先进模型表现更好。
Apr, 2023
基于Transfer Entropy的策略可解决Graph Convolutional Networks中的过度平滑和节点关系属性的利用两个重要挑战,并通过使用异质性和度信息作为节点选择机制以及基于特征的Transfer Entropy计算来提高GCN模型的分类准确率,但需要考虑计算复杂度。
Jun, 2024