Oct, 2019

稳定紧凑拣选与自我增长:不遗忘持续学习

TL;DR本文提出了一种简单但有效的方法来实现深度学习的连续增量学习,该方法结合了深层模型压缩、关键权重选择和渐进网络扩展的原理,在迭代中实现它们的集成,从而能够实现多种任务的增量学习,避免遗忘并保持模型的紧凑性。在实验中,该方法能够在不遗忘前面任务的情况下,增量学习处理多个任务的深度模型,同时对于单个任务的训练也具有更好的性能表现。