Mar, 2020

基于节点重要性的自适应群稀疏正则化的持续学习

TL;DR提出了一种名为自适应分组稀疏的持续学习的新型正则化方法,该方法利用两种基于稀疏性的罚项来更新节点的重要性,并使用接近梯度下降方法进行学习,以明确控制模型容量,实现对新任务的高效学习,并通过重置不重要节点的权重来避免负面转移引起的灾难性遗忘。