ICLRFeb, 2019
可扩展和顺序稳健的加性参数分解连续学习
Scalable and Order-robust Continual Learning with Additive Parameter Decomposition
Jaehong Yoon, Saehoon Kim, Eunho Yang, Sung Ju Hwang
TL;DR提出了一种称为 APD 的新型持续学习方法,该方法通过加性参数分解(APD)有效防止灾难性遗忘和顺序敏感性,并在可扩展性、精度和顺序鲁棒性方面明显优于现有的持续学习方法。