Oct, 2024
通过知识蒸馏进行数据集蒸馏:朝着高效的深度网络自监督预训练
Dataset Distillation via Knowledge Distillation: Towards Efficient
Self-Supervised Pre-Training of Deep Networks
TL;DR该研究解决了自监督预训练中缺乏有效数据集蒸馏的方法问题。研究者提出了一种新颖的方法,通过知识蒸馏的视角来训练学生模型,以匹配教师模型的表示,从而生成小型合成数据集。实验结果表明,该方法的合成数据集在下游任务上的准确率提高了最多13%。