本文研究机器学习领域的图半监督学习,提出了基于图卷积网络的深度学习方法,解决了图卷积网络机制不清晰及需要大量标注数据的问题,并针对浅层结构的限制提出了弱监督训练的方法。经过广泛实验验证,研究结果具有实际应用价值。
Jan, 2018
该研究提出了一种名为N-GCN的模型,将图卷积网络和随机游走中的信息融合,训练多个GCNs实例,并学习组合不同距离下的节点对的实例输出,实现优化分类目标。实验证明,该模型在节点分类任务上表现优异,具有良好的通用性和鲁棒性。
Feb, 2018
本研究提出了一种新的深层分层图卷积网络(H-GCN),通过聚合结构相似的节点形成超节点,然后再将粗化的图细化到原始图以恢复每个节点的表达,从而扩大每个节点的感受野,能够获取更多的全局信息,并在各种公共基准测试图数据集上表现出强大的实证性能。
Feb, 2019
该论文提出了DropEdge技术来解决深层图卷积网络在节点分类中的过拟合和过度平滑问题。DropEdge技术通过随机在每个训练迭代中移除一定数量的边缘节点来进行数据扩充和信息传递减少,旨在提高广义化效果和模型收敛速度。该技术还可以与其他多个骨干模型一起使用,使得在各种浅层和深层图卷积网络中都能一致提高模型的性能表现。
Jul, 2019
本研究提出了一种高效的图形卷积网络(GCN)训练框架L-GCN,该框架通过在训练期间解耦功能聚合和功能转换,大大降低了时间和内存复杂度,并提出了L²-GCN,用于每个层学习控制器,可以自动调整每个层的训练时期。实验表明,在不依赖于数据集大小的一致内存使用情况下,L-GCN比现有技术快至少一个数量级,同时保持可比的预测性能。
Mar, 2020
本论文提出了一种新的观点,即深度图卷积网络在训练过程中可以学习抗去平滑化的能力,并设计了一种简单却有效的技巧来改善GCN训练,同时在三个引用网络上验证了结论并提供了GCN邻域聚合方面的见解。
本研究提出了一种使用深度学习解决图像识别问题的方法——GCNII,并通过两种新技术—初始残差和身份映射—缓解了问题过度平滑的问题。实验结果表明深度GCNII模型在半监督和全监督任务中的性能优于现有方法。
Jul, 2020
本文针对图卷积网络(GCNs)在层数增多时表现下降的问题进行了研究,发现合理训练后更深的模型具有极高的训练准确性,但泛化能力较差。通过分析GCNs的泛化能力,本文提出了一种解耦结构,使得GCNs既能保留表达能力,又能保证较好的泛化性能。各种合成和真实数据集的实证评估证实了这一理论。
Oct, 2021
本研究提出一种名为BNS-GCN的简单而有效的方法,采用随机边界节点采样,提高了分布式GCN训练的吞吐量16.2倍,减少了内存使用量高达58%,同时保持全图精度的稳定性,为实现大规模GCN训练开辟了一条新的途径。
Mar, 2022
本文研究了Graph Convolutional Neural Networks在半监督节点分类中的表现。实验发现,节点的相似度和 GCN 的性能有正相关关系,并且 GCN 在同一类中节点邻居的一致性和唯一性对性能影响显著。
Jul, 2022