Mar, 2021
图神经网络知识的提取与扩展:一种有效的知识蒸馏框架
Extract the Knowledge of Graph Neural Networks and Go Beyond it: An
Effective Knowledge Distillation Framework
TL;DR本文提出一种基于知识蒸馏的框架,利用参数化标签传播和特征转换模块搭建简单的学生模型。实验结果表明,该模型在5个公共基准数据集上相对于7个图神经网络的教师模型平均能提高1.4% - 4.7%的准确度,并且具有更可解释性的预测过程。