Feb, 2024

分层近端回放:一种用于在线连续学习的近端点方法

TL;DR在在线连续学习中,通过经验重放防止灾难性遗忘和过拟合的神经网络优化过程可能出现不稳定的轨迹,我们提出了一种解决方案 —— 分层近似重放 (LPR),通过优化几何图形,平衡新数据和重放数据的学习,但仅允许对过去数据的隐藏激活进行逐渐变化,我们证明 LPR 在多个问题设置下稳定提升了基于重放的在线连续学习方法的性能,不受可用重放内存的影响。