Jun, 2024

通过语言引导知识蒸馏的轻量级模型预训练

TL;DR本论文研究小型模型的预训练问题,提出了一种名为 Language-Guided Distillation (LGD) 的新方法,利用语言指导来帮助在大型网络和小型模型之间传递知识,实现优于现有方法的性能,验证了在分类、检测和分割等多个下游任务中的卓越表现。