CVPRMar, 2022

使用可学习记忆调优图像 Transformer

TL;DR该研究提出使用可学习的记忆令牌来增强视觉 Transformer 模型,使其适应新任务,使用较少的参数,同时保留先前学习任务的能力。我们引入一组可学习的嵌入向量,即 “记忆令牌”,提供对特定数据集有用的上下文信息。该模型的准确性,通过每层只增加少量记忆令牌来显着改善,表现仅略低于显著更昂贵的完全微调。我们还提出了一个注意力掩模方法,使其能够扩展到新的下游任务,模型可在小的增量成本下同时执行旧任务和新任务。