复杂网络的释义:通过因子传递实现网络压缩
本研究介绍了一种通过对抗网络压缩方法实现从深层精确的模型向更小的模型中转移知识的方法,该方法不需要使用标签进行训练,并在不同的师生模型上泛化;在五个固定的标准数据集上进行广泛的评估表明,该学生模型准确率略有下降,而且性能比其他知识传输方法更好,并且超越了同一网络在使用标签训练时的性能,并且对比其他压缩策略的表现也达到了现有的最佳水平。
Mar, 2018
本论文中,我们提出了一种新的知识蒸馏方案,通过从无标签的少样本数据中提取知识,以实现数据效率和训练 / 处理效率。这种方法可以在不到几分钟的时间内,恢复学生网络的准确性,使用仅全量数据的 1%而不需要传统的微调方法。
Dec, 2018
本论文针对深度神经网络过于庞大以至于不能部署在移动设备等边缘设备的问题,提出了一种基于知识蒸馏的网络压缩方法。然而,该论文表明,如果学生网络与教师网络之间的差距太大,那么知识蒸馏的性能会下降;为此,该论文提出了一种多步知识蒸馏的方法,通过使用一个中等大小的网络(即教师助手)来弥补学生与教师之间的差距,并通过对 CIFAR-10,100 和 ImageNet 数据集进行广泛的实验证明了该方法的有效性。
Feb, 2019
本文提出一种新的知识转移任务 —— 知识因式分解(KF),旨在为预训练的神经网络分解成多个因式网络,每个网络处理一项具体任务,并保持任务特定知识因式化。实验表明,基于该模型的因式网络在任务执行、模块化、迁移学习等方面均具有较好的表现。
Jul, 2022
本文提出了一种基于特征嵌入的新型教师 - 学生模型,使用局部保持损失函数优化低维特征生成,从而避免引入额外参数,通过实验证明该方法计算和存储复杂度均优于现有教师 - 学生模型。
Dec, 2018
本文提出了一种基于知识蒸馏的对抗性学习框架以更好地训练轻量化(学生)卷积神经网络,同时全面考虑了大型(教师)卷积神经网络中的概率分布和中间层表示。实验结果表明,该方法可以显著地提高学生网络在图像分类和物体检测任务 上的性能。
Oct, 2018
本文提出了一种使用高维提示层和估计大网络输出方差的方法来改进知识蒸馏技术,并采用手动设计的特征来提升小型网络的性能,实现了比 AlexNet 更好的性能,同时拥有大网络 $400 imes$ 更少的参数。
Dec, 2016
通过知识翻译 (KT) 框架,利用神经网络将不同大小的模型进行转换以减少深度学习模型的训练、推理和存储开销,并通过数据增强策略在有限训练数据的情况下提高模型性能,成功展示了在 MNIST 数据集上的可行性。
Jan, 2024
本论文提出了一种信息理论框架用于知识转移,将知识转移视为最大化教师和学生网络之间的互信息,将该方法应用于不同架构的网络间的知识转移,证明了其性能远超现有方法。
Apr, 2019
本文提出了一种新颖的知识迁移方法,将其视为分布匹配问题,通过匹配教师和学生网络之间的神经元选择模式的分布,设计了一种新的知识迁移损失函数来最小化最大平均差异(MMD)值,通过与原始损失函数结合使用,有效提高了学生网络的性能,并在多个数据集上验证了方法的有效性。
Jul, 2017