无需师生模型或图神经网络,纯基于多层感知器的图自蒸馏 (TGS) 框架在训练中利用结构信息进行自知识蒸馏,从而在推理中无数据依赖,显著提高了多层感知器的性能,并在六个真实数据集上超过最先进的图知识蒸馏算法。此外,TGS 的推理速度比现有 GNNs 快 75 倍至 89 倍,比传统推理加速方法快 16 倍至 25 倍。
Mar, 2024
本篇论文提出了一种基于生成对抗网络的无需真实数据的对抗知识蒸馏框架,用于图结构数据的知识蒸馏,可以有效压缩图模型并在图分类任务中取得更好的性能。
May, 2022
本文提出了一种名为 GraphAKD 的新型对抗知识蒸馏框架,其中包括一个可训练的判别器和一个生成器,用于自适应地检测和降低深度图神经网络中的知识差异,并将其成功地应用于节点级和图级分类任务中,改善了学生 GNN 的性能。
本文提出了一种被称为无图知识蒸馏(GFKD)的方法,通过建模多元伯努利分布来学习知识传输的图拓扑结构,并使用梯度估计器来优化该框架,该方法适用于处理不同拓扑结构的非网格数据。经过广泛的实验,GFKD 实现了从 GNN 中蒸馏知识的最先进性能,无需训练数据。
May, 2021
该论文提出了一种名为 FreeKD 的图神经网络知识蒸馏框架,通过强化学习以一种自由的方式互相交换知识,无需提供深度优化的教师 GNN,可以达到比传统 KD 算法更好的性能。
Jul, 2023
本文提出了新的结构,在强化学习环境中构建了两个较浅的图神经网络来协作交换知识,以解决原本难以训练的深度图神经网络知识蒸馏问题,实验结果证明其优于基础图神经网络和其他传统知识蒸馏算法。
Jun, 2022
本文提出一种在线对抗蒸馏方法,通过以团体知识来作为动态虚拟教师和有效地捕获图神经网络中的结构变化来同时训练一组图神经网络。在这个方法中,我们通过传输反映图拓扑和节点属性信息的本地知识和反映类预测的全局知识来增强彼此的性能,以提高蒸馏性能。
Dec, 2021
本文提出一种在线知识蒸馏框架 ——Alignahead++,它通过一种交替的训练过程,将学生模型的结构和特征信息转移给另一个同时训练的学生模型的前一层,同时在每个中间层添加辅助分类器以避免过度平滑问题。实验结果表明,在不需要预训练模型的监督情况下,通过增加学生数量,我们的协作训练框架可以稳定提高学生模型的性能。
Oct, 2022
论文提出一种基于知识启发的可靠蒸馏(KRD)的方法,通过评估信息熵的不变性量化图神经网络中不同知识点的可靠性,并以此为基础进行无监督采样,从而提高学生 MLP 的性能。
Jun, 2023
本论文针对在文本图上学习有效节点表示的问题,提出了一种使用语言模型编码图文本信息的图神经网络和知识蒸馏机制,能够在无图情况下实现快速推理,实验结果表明,该方法在节点分类任务上具有显著优势。
Apr, 2023