Mar, 2024

CEAT:用于非示例类别增量学习的连续扩展和吸收变换器

TL;DR通过延展融合层并与冻结先前参数并行,然后无损地将扩展参数吸收到主干网络中,以确保参数数量恒定,同时采用新型的原型对比损失减少特征空间中新旧类别的重叠,并提出一种生成伪特征以校正分类器的新方法。实验结果表明,在 CIFAR-100、TinyImageNet 和 ImageNet-Subset 上,与之前的研究相比,我们的模型获得了显著的改进,分别提高了 5.38%、5.20%和 4.92%。