Feb, 2021

二次规范化器如何防止灾难性遗忘:插值的作用

TL;DR本篇论文探讨了一种防止深度神经网络在学习连续任务时出现遗忘现象的方法,即二次正则化,通过在每次训练迭代中插值当前和先前模型参数的值来防止遗忘。但是,二次正则化存在两个问题,即训练超参数的依赖性和对深层参数的低重要性,通过简单的修改可以避免这些问题并提高模型平均准确度,并且减少平均遗忘率。