无图神经网络:通过蒸馏教老 MLPs 新技巧
无需师生模型或图神经网络,纯基于多层感知器的图自蒸馏 (TGS) 框架在训练中利用结构信息进行自知识蒸馏,从而在推理中无数据依赖,显著提高了多层感知器的性能,并在六个真实数据集上超过最先进的图知识蒸馏算法。此外,TGS 的推理速度比现有 GNNs 快 75 倍至 89 倍,比传统推理加速方法快 16 倍至 25 倍。
Mar, 2024
论文提出一种基于知识启发的可靠蒸馏(KRD)的方法,通过评估信息熵的不变性量化图神经网络中不同知识点的可靠性,并以此为基础进行无监督采样,从而提高学生 MLP 的性能。
Jun, 2023
本文通过引入中间模型 PMLP,揭示了 GNN 的性能提升主要源于其本质上的泛化能力,而非原理层面上的增强表现力。同时,本文发现 PMLP 表现与 GNN 相当,但训练效率更高。该发现为解析 GNN 相关问题提供了新的视角。
Dec, 2022
本文针对基于图任务的高准确性图神经网络(Graph Neural Networks, GNNs)转化为低延时多层感知器(Multilayer Perceptrons, MLPs)的热门研究主题,提出了一种无需图边,且能够学习适应结构的 MLPs 的原型指导知识蒸馏方法(Prototype-Guided Knowledge Distillation, PGKD),通过在无边情况下的原型,从 GNNs 到 MLPs 中提取图的结构信息。实验结果表明该方法的有效性和鲁棒性。
Mar, 2023
AdaGMLP 是一种 AdaBoosting 框架,通过使用多个不同的 MLP 学生对标记节点的不同子集进行训练,解决了训练数据不足的问题,并结合节点对齐技术,提供了对具有缺失或不完整特征的测试数据的鲁棒预测,从而在许多延迟敏感的实际应用中表现优于现有的 G2M 方法。
May, 2024
通过无监督学习简化后的多层感知器(MLPs)在图表上进行学习,以增强泛化效果,特别是在未见节点的设置中,实现了显著的性能提升(7-26%)和图表推断加速(90-126 倍),在大规模图表数据集上优于现有基准方案。
Feb, 2024
本文介绍了一种名为 Full-Frequency GNN-to-MLP 的知识蒸馏方法,它能够从 GNN 中抽取低频和高频知识,并将其注入 MLP 中,从而解决了现有方法中可能存在的高频知识被低频知识淹没的问题。实验表明,该方法在六个图形数据集和三种常见的 GNN 架构中平均优于原始 MLPs 12.6%,并且优于对应的 GNN 2.6%。
May, 2023
本文比较了多层图神经网络和一种被称为图增强多层感知器的简化替代品之间的表现,其中后者首先通过图上的某些多跳算子增强节点特征,然后以节点方式应用 MLP;并证明了 GA-MLP 具备适当算子的情况下,能像 Weifeiler-Lehman(WL)测试一样,理论和数值上能够区分几乎所有非同构图,但是 GA-MLP 与 GNN 之间在表达能力方面的差距随着深度呈指数增长,并且 GA-MLP 不能计算属性步行的数量,表明 GA-MLP 受其操作符族的选择限制比拥有更高学习灵活性的 GNN 更为受限,这在社区检测实验中也得到了证明。
Oct, 2020
通过使用一种特殊设计的学生模型(Routing-by-Memory)来解决节点分类任务中的性能问题,该模型是一种专家混合(Mixture-of-Experts),通过鼓励每个专家在隐藏表示空间的某个特定区域进行专门化,实验证明可以在多个数据集上实现更一致的性能。
Jun, 2024
通过知识蒸馏从图神经网络导师中训练学生多层感知机,将 KD 过程重新构建为使学生模型在知识蒸馏中显式学习结构信息,并提出了一个有效的方法 Propagate & Distill (P&D),通过真实世界基准数据集的综合评估表明了 P&D 的有效性和对学生模型性能的进一步提升。
Nov, 2023