本文介绍了用于图数据的新方法 - 图神经正切核 (GNTK),并提出了第一种在 O(n ^ 2N ^ 3)运行时间内构造核矩阵的算法,以加快 GNTK 回归的端到端运行时间。
Dec, 2021
本文介绍了一种新的图卷积核 (GNTKs) 可以更好地表达图的信息,并且在图分类数据集上表现出强大的性能。
May, 2019
通过简化图卷积网络在图浓缩过程中的度量对齐方法,提出了一种简化的图浓缩方法,该方法在性能表现上与现有方法相当,并且在速度上能够实现高达 10 倍的加速。
Mar, 2024
本篇研究提出并研究了图卷积神经网络 (GNNs) 的图压缩问题,旨在将原始大图压缩成小型合成图以提高神经模型训练的时间性能,通过优化梯度匹配损失和设计一种策略同时压缩节点特征和结构信息,有效地将不同图数据集压缩成信息丰富的较小图并将其用于训练各种 GNN 体系结构,测试结果在 Reddit 上可达到 95.3%,在 Flickr 上可达到 99.8%,在 Citeseer 上可达到 99.0%,同时将其图的尺寸缩小了 99.9%以上。
Oct, 2021
通过解释性自表示图结构重构的方法,GCSR 在显式地融入原始图结构的过程中,通过重构可解释的自表示图结构,解决了在训练大规模图上的图神经网络时,节点特征优化、构建可解释图结构的问题。
对图形凝聚进行了全面而深入的研究,提出了 GC 的四个关键评估标准,并详细讨论了优化策略和凝聚图生成这两个关键组成部分,同时介绍了 GC 在各领域的应用和未来研究中的挑战与观点。
Jan, 2024
图神经网络、图压缩、鲁棒图压缩、训练图、图结构噪声
Jun, 2024
该研究提出了一种近似算法,旨在加速使用神经切向核的大规模学习任务,并结合随机特征,通过谱逼近保证精度。实验结果表明,其线性回归器可在 CIFAR-10 数据集上达到与全精度模型相当的准确度,同时提高了 150 倍的速度。
Jun, 2021
神经切向核、对齐、图神经网络、图移位算子和交叉协方差是本研究的关键词,该论文的主要内容是分析过度参数化神经网络的学习和泛化行为的理论机制,以及在图神经网络中优化对齐对图表示和图移位算子的重要性,并通过实验证明使用交叉协方差作为图移位算子的图神经网络在多变量时间序列预测任务中优于仅使用输入数据协方差矩阵的网络。
Oct, 2023
NTK 是理论深度学习领域的一个新兴趋势,通过 Neural Tangent Kernel(NTK)理解深度学习的工作原理。本文中,我们提供了三个新的理论结果,首先正式证明了基于图的回归问题中 GNTK 与无限宽度的多层图神经网络通过梯度下降训练是等效的;其次,我们提供了首个用于节点级回归问题的 GNTK 形式;最后,我们证明了在节点级回归问题中 GNTK 的等效性。
Sep, 2023