ICMLJun, 2020

从压缩的角度看持续学习

TL;DR通过信息理论的角度研究连接主义模型(如神经网络)的灾难性遗忘问题,提出连续学习方法是在压缩中 Bayesian 混合编码和最大似然(ML)插入编码的近似,并比较其性能和限制,最终提出了一种结合了 ML 插入和 Bayesian 混合编码的新的连续学习方法。