Apr, 2020
扩展 Kronecker 分解近似曲率的续学习
Continual Learning with Extended Kronecker-factored Approximate
Curvature
TL;DR提出了一种二次罚函数方法用于神经网络的不断学习,其中包含批量归一化层。通过考虑实例间的关系,扩展了K-FAC方法,以便在实际情况下正确逼近深度神经网络的Hessian矩阵。同时提出了一种权重合并和再参数化方法,并且对批归一化的统计参数进行了适当处理。实验结果表明,该方法在各项指标上均优于基准算法。