ICLROct, 2021

基于中心损失的持续学习正则化

TL;DR我们提出采用中心损失作为正则化惩罚来保留旧任务的记忆,从而使神经网络能够在学习新任务的同时保持对旧任务的高性能表现。