Aug, 2023

变分密度传播持续学习

TL;DR深度神经网络在真实世界中经常面临着分布漂移、各种类型的噪声和概念目标的变化。本文提出了一个适应连续学习数据分布漂移的框架,通过贝叶斯推断中的不确定性量化来缓解灾难性遗忘问题。通过优化一个闭式ELBO目标,通过传播分布的前两个矩阵(均值和协方差)来近似预测分布,我们将灾难性遗忘问题降至最低。