半监督学习中图卷积网络的深入洞察
该研究提出了一种名为N-GCN的模型,将图卷积网络和随机游走中的信息融合,训练多个GCNs实例,并学习组合不同距离下的节点对的实例输出,实现优化分类目标。实验证明,该模型在节点分类任务上表现优异,具有良好的通用性和鲁棒性。
Feb, 2018
本文介绍了Cluster-GCN算法,通过利用图聚类结构,将邻域搜索限制在一个由图聚类算法确定的密集子图中,从而实现大规模GCN的SGD训练,在保证可比性测试精度的情况下显著提高了内存和计算效率。
May, 2019
本研究提出了一种高效的图形卷积网络(GCN)训练框架L-GCN,该框架通过在训练期间解耦功能聚合和功能转换,大大降低了时间和内存复杂度,并提出了L²-GCN,用于每个层学习控制器,可以自动调整每个层的训练时期。实验表明,在不依赖于数据集大小的一致内存使用情况下,L-GCN比现有技术快至少一个数量级,同时保持可比的预测性能。
Mar, 2020
本研究提出了一种使用深度学习解决图像识别问题的方法——GCNII,并通过两种新技术—初始残差和身份映射—缓解了问题过度平滑的问题。实验结果表明深度GCNII模型在半监督和全监督任务中的性能优于现有方法。
Jul, 2020
本文从优化的角度解释了当前的图卷积操作存在的过度平滑问题,并引入了两个衡量节点级任务上过度平滑的度量标准,提出了一种新的卷积核GCN+,并在真实的数据集上证明了其在节点分类任务上的优秀性能表现。
Sep, 2020
本文针对图卷积网络(GCNs)在层数增多时表现下降的问题进行了研究,发现合理训练后更深的模型具有极高的训练准确性,但泛化能力较差。通过分析GCNs的泛化能力,本文提出了一种解耦结构,使得GCNs既能保留表达能力,又能保证较好的泛化性能。各种合成和真实数据集的实证评估证实了这一理论。
Oct, 2021
GND-Nets, a new graph neural network that exploits local and global neighborhood information, is proposed to mitigate the over-smoothing and under-smoothing problems of Graph Convolutional Networks, using a new graph diffusion method called neural diffusions, which integrate neural networks into the conventional linear and nonlinear graph diffusions.
Jan, 2022
本研究提出一种名为BNS-GCN的简单而有效的方法,采用随机边界节点采样,提高了分布式GCN训练的吞吐量16.2倍,减少了内存使用量高达58%,同时保持全图精度的稳定性,为实现大规模GCN训练开辟了一条新的途径。
Mar, 2022
本文研究了Graph Convolutional Neural Networks在半监督节点分类中的表现。实验发现,节点的相似度和 GCN 的性能有正相关关系,并且 GCN 在同一类中节点邻居的一致性和唯一性对性能影响显著。
Jul, 2022
本文通过在统一的优化框架中理论讨论了传统浅层学习方法与基于图卷积网络(GCNs)的关系,并提出了三种简单但强大的图卷积方法,包括有监督方法OGC以及两种无监督方法GGC和其多尺度版本GGCM,最后通过大量实验证明了我们方法的有效性。
Sep, 2023