Dec, 2023

跨层表示优化预训练模型的无需重演训练的持续学习

TL;DR我们提出了 LayUP,这是一种基于类原型的持续学习方法,利用预训练网络的多个中间层的二阶特征统计。与最佳基准线相比,LayUP 在七种类增量学习设置中提高了四种,并且在内存和计算资源占用方面大大减少。我们的结果表明,充分利用预训练模型在持续学习中的表示能力远不止于最终嵌入。