Jun, 2021

自然延续学习:成功源于旅程,不仅仅是终点

TL;DR本文提出了一种称为自然连续学习(NCL)的新方法,该方法统一了权重正则化和投影梯度下降。NCL 使用贝叶斯权重正则化来鼓励在收敛时所有任务的良好表现,并结合使用先验精度的梯度投影,从而防止优化过程中的灾难性遗忘。我们的方法在前馈神经网络和循环神经网络中应用于连续学习问题时,优于标准权重正则化技术和基于投影的方法。最后,训练的网络在学习新任务时演变出特定于任务的动力学,与生物电路的实验结果类似。