ACLFeb, 2021

预训练语言模型的非自回归式文本生成

TL;DR本文提出了一种基于 BERT 的非自回归文本生成模型,通过引入新的解码策略(ratio-first)以及机制来解决 NAG 模型中的两个问题,并在三个文本生成任务上进行全面评估,证明该模型在速度和性能上均优于现有的非自回归基线模型,在许多强自回归模型上也取得了有竞争力的性能.