CVPRMay, 2021

基于位级信息保护的持续学习

TL;DR本文针对连续学习中可能出现的遗忘和内存成本昂贵的问题,通过信息论的视角提出一种新的 Bit-Level Information Preserving (BLIP) 方法,通过参数量化更新模型参数,以保留先前任务对模型参数的信息增益来避免遗忘。经过大量实验,该方法在分类任务和强化学习任务中均表现出优异的效果,实现了几乎零遗忘,且仅需要恒定的内存开销。