Jul, 2024
注意干扰:在参数高效的视觉-语言模型持续学习中保留预训练知识
Mind the Interference: Retaining Pre-trained Knowledge in Parameter
Efficient Continual Learning of Vision-Language Models
TL;DR本研究提出了一种解决领域类别增量学习问题的框架,通过引入预训练的视觉语言模型(VLMs)来处理多样化任务,并采用分布感知无干扰知识融合的机制,有效地控制了信息注入过程,实现了对来自未见过分布的测试数据的精确控制。实验证明,我们的框架在与当前最先进方法相比,只需使用0.86%的训练参数,并显著减少训练时间。