ACLJun, 2021
自然语言生成的预训练 - 微调范式中的子词缝隙填补
Bridging Subword Gaps in Pretrain-Finetune Paradigm for Natural Language Generation
Xin Liu, Baosong Yang, Dayiheng Liu, Haibo Zhang, Weihua Luo...
TL;DR该文提出了一种通过嵌入传递来解决预训练 - 微调范式中的一些缺陷的方法,该方法可以提高预训练模型在自然语言生成(NLG)任务中的效果,实验表明该策略能够自由传输词汇,从而导致下游 NLG 模型执行更高效和更好。