通过 MLPs 揭示图学习的潜在潜力:利用传播式 MLPs 的有效图学习器
利用多层感知器 (MLPs) 解决图上半监督节点分类问题,在知识蒸馏中通过训练学生 MLP 来自教师图神经网络 (GNN) 的知识。受到将特征变换和传播分离的 GNN 的启发,我们重新构思了蒸馏过程,使学生 MLP 同时学习特征变换和传播。我们提出了 Propagate & Distill (P&D) 方法,在蒸馏之前传播教师的输出,这可以被解释为一种逆传播的近似过程。我们证明了 P&D 方法可以很容易地提高学生 MLP 的性能。
Nov, 2023
本文针对基于图任务的高准确性图神经网络(Graph Neural Networks, GNNs)转化为低延时多层感知器(Multilayer Perceptrons, MLPs)的热门研究主题,提出了一种无需图边,且能够学习适应结构的 MLPs 的原型指导知识蒸馏方法(Prototype-Guided Knowledge Distillation, PGKD),通过在无边情况下的原型,从 GNNs 到 MLPs 中提取图的结构信息。实验结果表明该方法的有效性和鲁棒性。
Mar, 2023
无需师生模型或图神经网络,纯基于多层感知器的图自蒸馏 (TGS) 框架在训练中利用结构信息进行自知识蒸馏,从而在推理中无数据依赖,显著提高了多层感知器的性能,并在六个真实数据集上超过最先进的图知识蒸馏算法。此外,TGS 的推理速度比现有 GNNs 快 75 倍至 89 倍,比传统推理加速方法快 16 倍至 25 倍。
Mar, 2024
使用知识蒸馏技术将图神经网络(GNNs)和多层感知器(MLPs)相结合,提出了无图依赖的神经网络 GLNNs,并在 7 个数据集的生产环境中证明其比 GNNs 更快且准确率接近,适用于延迟受限的应用程序。
Oct, 2021
论文提出一种基于知识启发的可靠蒸馏(KRD)的方法,通过评估信息熵的不变性量化图神经网络中不同知识点的可靠性,并以此为基础进行无监督采样,从而提高学生 MLP 的性能。
Jun, 2023
本文提出一种基于知识蒸馏的框架,利用参数化标签传播和特征转换模块搭建简单的学生模型。实验结果表明,该模型在 5 个公共基准数据集上相对于 7 个图神经网络的教师模型平均能提高 1.4% - 4.7% 的准确度,并且具有更可解释性的预测过程。
Mar, 2021
本文提供了一种基于多尺度图框架的知识蒸馏方法,通过合理利用图框架分解所提供的多尺度图知识,学生模型能够适应同构和异构图,并具有通过简单而有效的图手术缓解过度压缩问题的潜力。实验结果表明,该模型可以在保持高推理速度的同时,生成与教师模型相同甚至更好的学习精度。
Jul, 2023
我们研究在大规模图数据集上的图神经网络推理任务中存在的时间和内存消耗的难题,并尝试通过减少对图结构的依赖来克服此问题。为了解决位置信息丢失和低泛化性的两个主要问题,我们提出了一个新的三阶段多任务蒸馏框架,其中使用位置编码来捕捉位置信息,引入神经热核来处理图数据,并利用隐藏层输出进行匹配以提升学生 MLP 的性能。据我们所知,这是第一个在图上为学生 MLP 进行隐藏层蒸馏并将图位置编码与 MLP 相结合的工作。我们通过多种设置测试了其性能和鲁棒性,并得出结论:我们的工作在性能和稳定性方面具有卓越表现。
Mar, 2024
本文通过引入中间模型 PMLP,揭示了 GNN 的性能提升主要源于其本质上的泛化能力,而非原理层面上的增强表现力。同时,本文发现 PMLP 表现与 GNN 相当,但训练效率更高。该发现为解析 GNN 相关问题提供了新的视角。
Dec, 2022
采用结构感知的多层感知机(SA-MLP)来代替节点再递归获取和聚合并加入结构信息以提高大规模图上的推理加速,并且引入了结构混合知识蒸馏策略以增强 MLPs 学习结构信息的能力并在传递性和归纳性场景下对 8 个基准数据集进行广泛实验,从而比教师 GNN 更加出色地实现了快速推理。
Oct, 2022