May, 2019
mu-Forcing: 训练变分循环自编码器生成文本
mu-Forcing: Training Variational Recurrent Autoencoders for Text Generation
Dayiheng Liu, Xu Yang, Feng He, Yuanyuan Chen, Jiancheng Lv
TL;DR本文提出了一种使用正则化方法处理 Variational Recurrent Autoencoder 中 latent variables 过于随意造成的语言模型崩溃问题,将额外约束限制在 VRAE 的 latent variables 的后验概率分布中,使得模型能够准确地控制 KL 项和重构项之间的权衡,并学习到更加密集和有意义的 latent representations。实验表明,该方法优于多个强力 baseline,且不需要使用其他 KL 退火策略,能够学到可解释的 latent variables 并生成多样化和有意义的句子。