ACLJan, 2019

自然语言理解的多任务深度神经网络

TL;DR本文介绍了一种用于跨多个自然语言理解任务的表示学习的多任务深度神经网络(MT-DNN),其延伸了 Liu 等人(2015)所提出的模型,并包含一个预先训练的双向变形器语言模型(BERT)。MT-DNN 在 10 个 NLU 任务中实现了新的最先进结果,并提高了 GLUE 基准至 82.7%(2.2%的绝对改进),其代表着领先水平。同时,我们还展示了 MT-DNN 所学习到的表征,可以用较少的数据实现领域适应,比预先训练的 BERT 表征更加优秀。