Oct, 2017

变分连续学习

TL;DR本文提出变分连续学习(Variational Continual Learning,VCL)框架,它将在线变分推理(Online Variational Inference, VI)和神经网络中的蒙特卡罗变分推理(Monte Carlo VI)相融合,成功地在任务时序不断演变、全新任务涌现等复杂连续学习情景下对深度判别模型和生成模型进行建模并避免灾难性遗忘的发生。实验结果表明,在多种任务上,VCL优于现有的连续学习方法。