Dec, 2023

面对数据不平衡的多语言学习中的顺序问题

TL;DR本文从实证角度研究了多任务学习的优化动态,特别关注了在存在显著数据不平衡的多个任务集合中所涉及的优化过程。我们提出了一种简单但有效的方法,即在高资源任务上进行预训练,然后在高 / 低资源任务的混合中进行微调。通过彻底的实证研究和分析,我们证明了该方法相对于标准静态加权的性能权衡概况实现了持续改进。我们分析了在什么样的数据条件下该方法适用,并在神经机器翻译(NMT)和多语言语言建模中实证了其改进效果。