基于图形的深度几何知识蒸馏
这篇研究提出了一种新的知识蒸馏范式,称为维度降低知识蒸馏(RdimKD),通过使用一个投影矩阵将大网络和小网络的特征图投影到低维子空间,并在训练过程中进行优化,既保证学生从老师获取有价值信息,又灵活适应学生的低容量实际情况。实证研究表明 RdimKD 在各种学习任务和不同网络架构中具有有效性。
Dec, 2023
本文提出了一种被称为无图知识蒸馏(GFKD)的方法,通过建模多元伯努利分布来学习知识传输的图拓扑结构,并使用梯度估计器来优化该框架,该方法适用于处理不同拓扑结构的非网格数据。经过广泛的实验,GFKD 实现了从 GNN 中蒸馏知识的最先进性能,无需训练数据。
May, 2021
本研究提出了一种名为 Residual Knowledge Distillation (RKD) 的知识蒸馏方法,通过引入辅助器来进一步提炼知识,从而解决现有方法由于学习容量间的巨大差距而导致的性能下降问题,并在 CIFAR-100 和 ImageNet 等流行分类数据集上取得优异的成果,超过了现有方法的最新水平。
Feb, 2020
本文探讨了一种新的知识传递范式,旨在通过从在完全图上训练的教师 GNN 模型到在更小或更稀疏的图上操作的学生 GNN 模型提炼知识来将图拓扑信息编码到图神经网络(GNNs)中。作者提出了神经热核(NHK)并得到了一种基于 NHKs 对齐的基础和原则性解决方案,称为几何知识蒸馏。我们开发了非参数化和参数化实例,并在不同类型的特权拓扑信息和师生方案的各种实验设置中证明了它们的效果。
Oct, 2022
本文提出一种基于属性图的全局知识蒸馏方法,通过自适应地聚合相关样本的单独知识,将它们与关系型邻域样本的关联知识整合成统一的图嵌入,并以对比的方式训练学生网络来蒸馏全局知识。
Aug, 2021
本文提出了一种名为 GraphAKD 的新型对抗知识蒸馏框架,其中包括一个可训练的判别器和一个生成器,用于自适应地检测和降低深度图神经网络中的知识差异,并将其成功地应用于节点级和图级分类任务中,改善了学生 GNN 的性能。
May, 2022
该论文提出了一种新的知识蒸馏方法,通过在教师模型与学生模型差异较大的地方提取知识,在生成新的辅助样本的过程中改善学生模型的性能,从而使教师模型与学生模型更加匹配。这种方法在自然语言处理和计算机视觉等领域得到了良好的实验结果。
Jan, 2023
本文提供了一种基于多尺度图框架的知识蒸馏方法,通过合理利用图框架分解所提供的多尺度图知识,学生模型能够适应同构和异构图,并具有通过简单而有效的图手术缓解过度压缩问题的潜力。实验结果表明,该模型可以在保持高推理速度的同时,生成与教师模型相同甚至更好的学习精度。
Jul, 2023