BriefGPT.xyz
Mar, 2019
神经修剪的连续学习
Continual Learning via Neural Pruning
HTML
PDF
Siavash Golkar, Michael Kagan, Kyunghyun Cho
TL;DR
本篇研究提出了一种名为CLNP的方法,通过神经模型稀疏化实现模型固定容量下的全生命周期学习,在这种方法中,使用经过稀疏化网络中的非活动神经元和滤波器来训练后续任务,并对以前任务的性能不会造成任何恶化,此外,CLNP还提供了简单的学习诊断工具。实验证明,与当前基于权重弹性的方法相比,CLNP能够显著提高结果。
Abstract
We introduce
continual learning
via
neural pruning
(CLNP), a new method aimed at lifelong learning in fixed capacity models based on neuronal model sparsification. In this method, subsequent tasks are trained usi
→