Dec, 2023
跨层表示优化预训练模型的无需重演训练的持续学习
Read Between the Layers: Leveraging Intra-Layer Representations for
Rehearsal-Free Continual Learning with Pre-Trained Models
TL;DR我们提出了LayUP,这是一种基于类原型的持续学习方法,利用预训练网络的多个中间层的二阶特征统计。与最佳基准线相比,LayUP在七种类增量学习设置中提高了四种,并且在内存和计算资源占用方面大大减少。我们的结果表明,充分利用预训练模型在持续学习中的表示能力远不止于最终嵌入。