针对通用图卷积网络的光滑问题解决
该论文提出了DropEdge技术来解决深层图卷积网络在节点分类中的过拟合和过度平滑问题。DropEdge技术通过随机在每个训练迭代中移除一定数量的边缘节点来进行数据扩充和信息传递减少,旨在提高广义化效果和模型收敛速度。该技术还可以与其他多个骨干模型一起使用,使得在各种浅层和深层图卷积网络中都能一致提高模型的性能表现。
Jul, 2019
提出一种名为图修正卷积网络(GRCN)的框架,通过引入基于GCN的图修正模块来预测缺失边并在下游任务中进行边缘权重修正,以避免过度参数化或简单的重新加权观察到的边缘的问题,并且在六个基准数据集上的实验结果表明,与强基准方法相比,GRCN始终表现出较大的优势,尤其是原始图严重不完整或用于模型训练的标记实例高度稀疏的情况。
Nov, 2019
本论文提出了一种新的观点,即深度图卷积网络在训练过程中可以学习抗去平滑化的能力,并设计了一种简单却有效的技巧来改善GCN训练,同时在三个引用网络上验证了结论并提供了GCN邻域聚合方面的见解。
Mar, 2020
本文提出了一种改进的基于节点转移概率的消息传递过程和一种新的正则化方法 DropNode,以解决小型图形上的过拟合和过度平滑等问题,实验发现这种方法在节点和图分类任务中要优于现有的方法。
Aug, 2020
本文从优化的角度解释了当前的图卷积操作存在的过度平滑问题,并引入了两个衡量节点级任务上过度平滑的度量标准,提出了一种新的卷积核GCN+,并在真实的数据集上证明了其在节点分类任务上的优秀性能表现。
Sep, 2020
该论文提出一种名为 TADropEdge 的自适应数据增强技术,通过考虑图连接性这一重要属性,将随机边删除与图结构信息结合,以生成更为可靠的增强数据,实现了提高图神经网络泛化性能的目的。
Jun, 2021
本文针对图卷积网络(GCNs)在层数增多时表现下降的问题进行了研究,发现合理训练后更深的模型具有极高的训练准确性,但泛化能力较差。通过分析GCNs的泛化能力,本文提出了一种解耦结构,使得GCNs既能保留表达能力,又能保证较好的泛化性能。各种合成和真实数据集的实证评估证实了这一理论。
Oct, 2021
本文提出了一种称为CSF的跨空间自适应滤波器,可以从拓扑和属性空间中提取自适应频率信息,解决了过度平滑问题并提升了节点分类任务的有效性。
Jan, 2024