May, 2019

元学习表征用于连续学习

TL;DR本文提出了一种称为OML的目标,其直接最小化灾难性干扰,通过学习在持续学习的在线更新过程中加速未来学习和对遗忘有弹性的表示,我们表明可以学习到更有效的在线更新的自然稀疏表示,并且该算法是现有持续学习策略,如MER和GEM的有效补充,最后,我们证明了通过OML学习的基本在线更新策略与基于重演的持续学习方法具有相同的竞争力。