Apr, 2020

Optimus:通过预训练的潜在空间建模来组织句子

TL;DR本研究提出Optimus模型,通过大规模预训练和微调,实现了面向各种自然语言生成和理解任务的通用潜在嵌入空间。与GPT-2相比,Optimus可使用潜在向量在抽象层次上进行引导语言生成。与BERT相比,由于平滑的潜在空间结构,Optimus在低资源语言理解任务上具有更好的泛化能力。实验结果表明Optimus的有效性,并在VAE语言建模基准上实现了新的最佳性能。