本文研究机器学习领域的图半监督学习,提出了基于图卷积网络的深度学习方法,解决了图卷积网络机制不清晰及需要大量标注数据的问题,并针对浅层结构的限制提出了弱监督训练的方法。经过广泛实验验证,研究结果具有实际应用价值。
Jan, 2018
本研究提出一种新的方法EvolveGCN,其结合了时间因素和图卷积网络(GCN)模型,利用循环神经网络(RNN)来推动GCN参数的演变,从而对动态图的序列进行建模,实现了对于转化后的动态图的高效预测和分类。
Feb, 2019
本文介绍了Cluster-GCN算法,通过利用图聚类结构,将邻域搜索限制在一个由图聚类算法确定的密集子图中,从而实现大规模GCN的SGD训练,在保证可比性测试精度的情况下显著提高了内存和计算效率。
May, 2019
提出一种名为图修正卷积网络(GRCN)的框架,通过引入基于GCN的图修正模块来预测缺失边并在下游任务中进行边缘权重修正,以避免过度参数化或简单的重新加权观察到的边缘的问题,并且在六个基准数据集上的实验结果表明,与强基准方法相比,GRCN始终表现出较大的优势,尤其是原始图严重不完整或用于模型训练的标记实例高度稀疏的情况。
Nov, 2019
本文提出了一种名为DeeperGCN的新型Graph Convolutional Networks,它有效地解决了深度较大的GCNs存在的梯度消失、过度平滑和过度拟合等问题,实现了对大规模图数据的成功且可靠的训练,并在Open Graph Benchmark (OGB)上进行的实验证明其在节点属性预测和图形属性预测的大规模图形学习任务中比现有技术有显著提高。
Jun, 2020
本研究提出了一种使用深度学习解决图像识别问题的方法——GCNII,并通过两种新技术—初始残差和身份映射—缓解了问题过度平滑的问题。实验结果表明深度GCNII模型在半监督和全监督任务中的性能优于现有方法。
Jul, 2020
本研究对图神经网络进行深入探究,提出了解决深度学习中过度平滑问题的新方法,并通过实验证明了其在引文、合著和共同购买等领域的卓越表现。
本研究提供了第一个公平、可重复的基准测试,重点研究了训练深度图神经网络中的技巧,并利用该测试在数十个代表性图数据集上进行了全面评估,证明了初始连接、标识映射、分组和批量归一化的有机组合实现了深度GNN在大型数据集上的最新成果。
Aug, 2021
本文针对图卷积网络(GCNs)在层数增多时表现下降的问题进行了研究,发现合理训练后更深的模型具有极高的训练准确性,但泛化能力较差。通过分析GCNs的泛化能力,本文提出了一种解耦结构,使得GCNs既能保留表达能力,又能保证较好的泛化性能。各种合成和真实数据集的实证评估证实了这一理论。
Oct, 2021
本研究解决了深度图卷积网络在稳定性与泛化能力方面的理论理解缺口。通过系统性阐述关键因素对深度GCN稳定性及泛化能力的影响,本文提供了严谨的界限特征。研究结果可助力于开发更可靠且表现更好的模型。
Oct, 2024