ICLRMar, 2023

BERT 在连续任务中能否避免遗忘?一个探究研究

TL;DR该研究发现预训练语言模型 BERT 能够在学习新任务时不需要稀疏经验回放外就能保留以前所学的知识,通过探究其机制并采用记忆重演方法能够有效减少任务增量学习中的遗忘。