ACLJan, 2021

多任务问题下的语言建模

TL;DR本文研究语言模型作为多任务问题,结合了多任务学习,语言学和可解释性三个研究领域。通过研究来自语言学理论的假设,我们调查语言模型在训练过程中是否遵循多任务学习的学习原则。 为了展示这个想法,我们分析了语言模型在学习消极极性项(NPIs)的语言概念时的泛化行为。我们的实验表明:在更一般的语言建模任务的目标中,多任务设置自然地出现。我们认为这种洞察力对于多任务学习,语言学和可解释性研究都是有价值的,并且可能导致所有三个领域的令人兴奋的新发现。