May, 2019

mu-Forcing: 训练变分循环自编码器生成文本

TL;DR本文提出了一种使用正则化方法处理 Variational Recurrent Autoencoder 中 latent variables 过于随意造成的语言模型崩溃问题,将额外约束限制在 VRAE 的 latent variables 的后验概率分布中,使得模型能够准确地控制 KL 项和重构项之间的权衡,并学习到更加密集和有意义的 latent representations。实验表明,该方法优于多个强力 baseline,且不需要使用其他 KL 退火策略,能够学到可解释的 latent variables 并生成多样化和有意义的句子。