May, 2019

元学习表征用于连续学习

TL;DR本文提出了一种称为 OML 的目标,其直接最小化灾难性干扰,通过学习在持续学习的在线更新过程中加速未来学习和对遗忘有弹性的表示,我们表明可以学习到更有效的在线更新的自然稀疏表示,并且该算法是现有持续学习策略,如 MER 和 GEM 的有效补充,最后,我们证明了通过 OML 学习的基本在线更新策略与基于重演的持续学习方法具有相同的竞争力。