ICMLJun, 2020

基于正则化的持续学习的优化和泛化:一种损失逼近的视角

TL;DR本文提出了一种正则化连续学习的新视角,将其定义为每个任务损失函数的二阶 Taylor 近似,得到了一个可实例化的统一框架,并研究了优化和泛化特性,理论和实验结果表明二阶 Hessian 矩阵的精确近似非常重要。