Mar, 2019

神经修剪的连续学习

TL;DR本篇研究提出了一种名为 CLNP 的方法,通过神经模型稀疏化实现模型固定容量下的全生命周期学习,在这种方法中,使用经过稀疏化网络中的非活动神经元和滤波器来训练后续任务,并对以前任务的性能不会造成任何恶化,此外,CLNP 还提供了简单的学习诊断工具。实验证明,与当前基于权重弹性的方法相比,CLNP 能够显著提高结果。