ICLRFeb, 2019

可扩展和顺序稳健的加性参数分解连续学习

TL;DR提出了一种称为 APD 的新型持续学习方法,该方法通过加性参数分解(APD)有效防止灾难性遗忘和顺序敏感性,并在可扩展性、精度和顺序鲁棒性方面明显优于现有的持续学习方法。