变分信息蒸馏用于知识迁移
在本研究中,我们提出了一种将知识蒸馏应用于迁移学习的机器学习架构,称为 TL + KD,并对它与传统 TL 的图像分类效果进行了量化和定性比较。结果表明,在微调过程中,使用较大的教师网络提供指导和知识可以改善学生网络以实现更好的验证性能,同时研究了不同场景下的性能表现。
Oct, 2022
本文提出了新型的知识蒸馏损失函数,其通过保留教师神经网络中相似输入的激活模式特征,指导学生神经网络的训练,使其在保留各自的表征空间中,能够准确地保持输入的相似度。实验结果表明了该方法的潜力。
Jul, 2019
IJCKD 提供了一个理论框架,通过一个基于领域自适应理论的数学分析来更好地理解现有的知识蒸馏方法,明确了教师网络与学生网络之间的知识转移机制,并且可以有效地将知识传递给各种应用领域。
Apr, 2023
本文介绍了一种新的知识蒸馏方法,使用自我监督信号作为辅助任务来提取自预训练教师模型中的丰富知识,并将其成功地传递到学生网络中,从而实现了在各种基准测试下的表现优异。
Jun, 2020
通过对比学习的方式训练学生网络来实现更好的知识迁移,相比知识蒸馏等传统方法在单模型压缩、集成蒸馏和跨模态迁移等多种任务中表现更优,甚至在与知识蒸馏相结合时可以超越教师网络,这一方法在许多知识迁移任务中达到了最新的最佳表现。
Oct, 2019
通过使用教师网络的软输出作为向导进行学生网络的训练,知识蒸馏是模型压缩和知识转移的成功方法之一。本文通过分析一种宽神经网络的知识蒸馏,提出了一种称为数据效率的任务难度度量标准,并证明了在教师完美的情况下,教师软标签的高比例可以很有益处,并且在不完美的教师情况下,硬标签可以修正教师的错误预测,这解释了混合硬标签和软标签的实践。
Oct, 2020
本篇论文提出了一种新型的知识蒸馏方法,采用一对所有的空间匹配,提高小型神经网络的性能,不同于以往的一对一的空间匹配,从而导致所有的空间位置通常都具有不同的语义信息。该方法在各种计算机视觉基准测试中都超过了最先进的方法。
May, 2022