Oct, 2023

在持续学习中平衡稳定性和可塑性:激活变化的输出分解(RDAC)框架

TL;DR连续学习算法中的稳定性和可塑性之间的权衡问题是本研究的核心挑战,本文引入了RDAC框架来解决这一问题,并研究了常用的正则化算法在稳定性和可塑性之间的权衡情况,在深层非线性网络和单隐藏层线性神经网络上进行了验证实验,结果表明该算法在保持稳定性的同时并没有明显损失可塑性,为现有的连续学习算法提供了有价值的见解,并为新的连续学习方法铺平了道路,在生物系统中对学习诱导的激活/表示变化与稳定性-可塑性困境的关系以及再现漂移问题也提供了新的视角。