ACLMay, 2023

大规模多语言持续学习中克服灾难性遗忘

TL;DR本论文研究在一种包含 51 种语言和分类、序列标记任务的大规模多语言持续学习框架中,灾难性遗忘问题以及最小化此问题的方法,提出了一种学习率调整方法 LR ADJUST,其能有效地保留新信息而不过度覆盖过去的知识,并且该方法在多种持续学习方法中都行之有效。还进一步深入分析了该大规模多语言环境下灾难性遗忘的动态过程。