Mar, 2024

选择与概括:选择性双教师知识迁移用于视觉语言模型的持续学习

TL;DR大规模视觉语言模型(VLMs)展示了对未见域数据具有强大的零样本泛化能力。然而,适应预训练的 VLMs 并执行一系列下游任务时,它们容易忘记以前学到的知识并降低其零样本分类能力。为解决这个问题,我们提出了一种独特的选择性双教师知识迁移框架,利用最新的精细调整和原始的预训练 VLMs 作为双教师来保留以前学到的知识和零样本能力。通过仅访问未标记的参考数据集,我们提出的框架通过测量双教师 VLMs 的特征差异来执行选择性知识蒸馏机制。因此,我们的选择性双教师知识蒸馏将缓解以前学到的知识的灾难性遗忘,同时保留预训练 VLMs 的零样本能力。通过对基准数据集进行大量实验,我们证明了我们的提出的框架对于防止灾难性遗忘和零样本退化的最新持续学习方法是有利的。