KDDFeb, 2023

持续学习自然语言新任务中预防灾难性遗忘

TL;DR该论文提出了一种基于知识蒸馏的增量学习方法,利用未标记数据避免灾难性遗忘,该方法在公开基准测试中表现出显著的效果,能够保存已获取的知识,并对增量添加的任务获得良好的性能。