AAAIFeb, 2020

残差连续学习

TL;DR本文提出了一种新的连续学习方法 Residual Continual Learning (ResCL),通过对网络参数进行线性组合并使用特殊的权重衰减损失函数,该方法可以避免在多个任务的顺序学习中出现灾难性遗忘现象,同时在各种连续学习场景下表现出最先进的性能。