Aug, 2020

极限内存约束下的在线连续学习

TL;DR本文提出了一个新的问题——Memory-Constrained Online Continual Learning (MC-OCL),我们通过Batch-level Distillation(BLD)这种基于正则化的CL方法来解决这个问题,并在三个公开的基准测试中证明了我们的方法成功地解决了MC-OCL问题,同时实现了与需要更高存储开销的先前distillation方法相当的准确性。