Sep, 2018

基于自注意潜空间的对抗文本生成

TL;DR本文提出了采用自注意机制和Transformer架构的文本生成自注意架构,以加强此类生成文本的编码体系(specifically AAE and ARAE),并将其与Google句子压缩数据集上使用的二类编码体系进行了实验比较。实验证明,所提出的(自)注意模型优于现有的对抗生成文本编码体系。