Feb, 2024

一阶段基于提示的持续学习

TL;DR通过引入一种单阶段的 PCL 框架,将中间层的标记嵌入作为提示查询,消除了查询 ViT 的额外前馈阶段,从而在训练和推理中将计算成本降低了约 50%,准确度仅下降不到 1%。此外,引入了查询池正则化损失(QR 损失),用于改进提示查询和提示池之间的关系,该损失仅在训练时应用,因此在推理阶段没有计算开销。通过引入 QR 损失,我们的方法在推理过程中仍然保持了约 50% 的计算成本降低,并且在包括 CIFAR-100、ImageNet-R 和 DomainNet 在内的公共类增量连续学习基准测试中优于之前的两阶段 PCL 方法约 1.4%。