multilingual speech recognition with neural networks is often implemented
with batch-learning, when all of the languages are available before training.
An ability to add new languages after the prior training ses
本论文研究在一种包含 51 种语言和分类、序列标记任务的大规模多语言持续学习框架中,灾难性遗忘问题以及最小化此问题的方法,提出了一种学习率调整方法 LR ADJUST,其能有效地保留新信息而不过度覆盖过去的知识,并且该方法在多种持续学习方法中都行之有效。还进一步深入分析了该大规模多语言环境下灾难性遗忘的动态过程。