半监督学习中图卷积网络的深入洞察
本文提出了一种图拉普拉斯图卷积网络 (gLGCN) 方法,该方法通过编码图结构和节点特征同时保持局部不变性约束,用于图数据表示和半监督分类,并在实验中证明了其有效性。
Sep, 2018
本文通过在统一的优化框架中理论讨论了传统浅层学习方法与基于图卷积网络(GCNs)的关系,并提出了三种简单但强大的图卷积方法,包括有监督方法 OGC 以及两种无监督方法 GGC 和其多尺度版本 GGCM,最后通过大量实验证明了我们方法的有效性。
Sep, 2023
本文研究了 Graph Convolutional Neural Networks 在半监督节点分类中的表现。实验发现,节点的相似度和 GCN 的性能有正相关关系,并且 GCN 在同一类中节点邻居的一致性和唯一性对性能影响显著。
Jul, 2022
提出一种名为图修正卷积网络(GRCN)的框架,通过引入基于 GCN 的图修正模块来预测缺失边并在下游任务中进行边缘权重修正,以避免过度参数化或简单的重新加权观察到的边缘的问题,并且在六个基准数据集上的实验结果表明,与强基准方法相比,GRCN 始终表现出较大的优势,尤其是原始图严重不完整或用于模型训练的标记实例高度稀疏的情况。
Nov, 2019
本文从优化的角度解释了当前的图卷积操作存在的过度平滑问题,并引入了两个衡量节点级任务上过度平滑的度量标准,提出了一种新的卷积核 GCN+,并在真实的数据集上证明了其在节点分类任务上的优秀性能表现。
Sep, 2020
本研究提出了一种新的深层分层图卷积网络 (H-GCN),通过聚合结构相似的节点形成超节点,然后再将粗化的图细化到原始图以恢复每个节点的表达,从而扩大每个节点的感受野,能够获取更多的全局信息,并在各种公共基准测试图数据集上表现出强大的实证性能。
Feb, 2019
本文提出了两种无监督自学习策略来利用输入图形结构数据中的可用信息,以进一步改善有限的训练数据下模型的学习能力和性能。该方法在三个公共引文网络数据集上使用两个代表性的 GCN 模型进行了实验验证,展示了其在显著提高特征学习方面的自我监督学习能力和可移植性。
Jun, 2020
GND-Nets, a new graph neural network that exploits local and global neighborhood information, is proposed to mitigate the over-smoothing and under-smoothing problems of Graph Convolutional Networks, using a new graph diffusion method called neural diffusions, which integrate neural networks into the conventional linear and nonlinear graph diffusions.
Jan, 2022
该研究提出了一种名为 N-GCN 的模型,将图卷积网络和随机游走中的信息融合,训练多个 GCNs 实例,并学习组合不同距离下的节点对的实例输出,实现优化分类目标。实验证明,该模型在节点分类任务上表现优异,具有良好的通用性和鲁棒性。
Feb, 2018
本研究提出了一种使用深度学习解决图像识别问题的方法 ——GCNII,并通过两种新技术 — 初始残差和身份映射 — 缓解了问题过度平滑的问题。实验结果表明深度 GCNII 模型在半监督和全监督任务中的性能优于现有方法。
Jul, 2020