ACLJun, 2021

自然语言生成的预训练 - 微调范式中的子词缝隙填补

TL;DR该文提出了一种通过嵌入传递来解决预训练 - 微调范式中的一些缺陷的方法,该方法可以提高预训练模型在自然语言生成(NLG)任务中的效果,实验表明该策略能够自由传输词汇,从而导致下游 NLG 模型执行更高效和更好。