通过对抗信念匹配实现零样本知识迁移
本文提出了零数据知识迁移的方法,通过自动生成 Data Impressions 从而实现了基于 Teacher 模型的知识迁移,不需要获取原始数据,具有实用性和良好的泛化能力。
May, 2019
本文提出了一种基于知识蒸馏的对抗性学习框架以更好地训练轻量化(学生)卷积神经网络,同时全面考虑了大型(教师)卷积神经网络中的概率分布和中间层表示。实验结果表明,该方法可以显著地提高学生网络在图像分类和物体检测任务 上的性能。
Oct, 2018
提出了一种名为 Dual Discriminator Adversarial Distillation (DDAD) 的新型无数据的知识蒸馏方法,通过生成样本,训练紧凑的学生网络,使其接近其教师网络,从而在计算机视觉任务中实现了高效的神经网络。
Apr, 2021
本篇论文提出了一种新型的知识蒸馏方法,采用一对所有的空间匹配,提高小型神经网络的性能,不同于以往的一对一的空间匹配,从而导致所有的空间位置通常都具有不同的语义信息。该方法在各种计算机视觉基准测试中都超过了最先进的方法。
May, 2022
本文提出了一种黑盒少样本知识蒸馏方法,使用 MixUp 和条件变分自编码器生成多样的合成图像进行训练,显著优于最新 SOTA 的少 / 零样本 KD 方法用于图像分类任务。
Jul, 2022
通过匹配教师行为的行动 - 价值矩关系,我们提出了一种对大型语言模型进行知识蒸馏的模仿学习策略,使用对抗训练算法来同时估计行动 - 价值矩距离并优化学生模型的政策,以此最小化距离,并在任务无关和任务特定实验中取得了新的最优性能。
Jun, 2024
在强化学习中,我们提出了一种无模拟器知识蒸馏的方法,通过重新初始化数据生成器,利用对抗损失来显式地处理每个输出类的多个观察值,以找到尽可能多的实例,从而改进了现有技术在 MNIST、Fashion-MNIST、CIFAR-10 等基准数据集上的学习情况,同时具体解决了涉及多输入模式时的问题。
Nov, 2020
该论文提出了一种新的 Teacher-Student 知识蒸馏方法,通过遮盖有关 Teacher 输出中的真实标签以过滤可能损坏的知识来学习具有噪声标签的神经网络。论文中的实验表明,这种方法可以有效地检测训练过程中的过拟合,并改善对 CIFAR-N 数据集中干净和噪声标签的检测。
Nov, 2022
本文介绍了一种名为 DIST 的方法,它可以更好地从一个更强的教师模型中进行知识蒸馏,通过保留教师和学生之间的预测关系,提出了基于相关损失的方法,从而实现了最先进的性能。
May, 2022