提出一种基于神经网络的生成架构,通过潜在的随机变量来建模具有复杂依赖关系的分层结构顺序数据,将该模型应用于对话响应生成任务并与最近的神经网络架构进行比较,实验证明该模型可以提高生成长输出的准确性并维持上下文信息。
May, 2016
本文通过将训练步骤分为两个阶段来解决 KL - 消失问题,采用多层感知器对高斯噪声进行变换来对潜在变量进行采样,从而实现更灵活的分布,实验结果表明,我们的模型在度量和人类评估方面都有大幅度提高。
Feb, 2018
本文研究了将潜在随机变量引入到循环神经网络(RNN)的动态隐藏状态中,结合变分自编码器,通过高级潜在随机变量建立了变分循环神经网络(VRNN),可以很好地建模结构化序列数据,如自然语音。通过对四个语音数据集和一个手写数据集的实证评估,证明了潜在随机变量在 RNN 动态隐藏状态中的重要作用。
Jun, 2015
本研究提出了一种基于条件变分自编码器(CVAE)的框架,该框架利用潜在变量来学习潜在意图的分布,并仅使用贪婪解码器生成多样化响应,其可以更好地捕获感性多样性和提高决策能力。实验证明,与基线方法相比,所提出的模型可以生成更丰富的响应,并且具有更好的表现。
Mar, 2017
本文提出了变分 Transformer(VT)算法,将变分自注意力前馈序列模型与 CVAE 的变分性质相结合,从而有效处理对话响应生成领域中高熵任务的问题,并在多个对话数据集上获得了性能提升。
Mar, 2020
本文研究主要通过在条件变分自编码器中引入具有显式语义意义的离散潜变量,从而提高短文本对话生成质量并增加多样性。实验证明,该模型在自动评估和人类评估中表现出色。
Nov, 2019
本文探讨了建筑选择对于学习文本生成变分自编码器(VAE)的影响。与之前引入的使用 RNN 的 VAE 不同,本文提出了一种新颖的混合架构,将完全前馈卷积和反卷积组件与递归语言模型混合在一起。我们的架构具有几个有吸引力的属性,如更快的运行时间和收敛速度,能够更好地处理长序列,并且更重要的是,它有助于避免训练 VAE 模型时出现的一些主要困难。
Feb, 2017
本文研究了多层结构的变分自编码器模型,采用层级随机层和多层解码器结构生成更具信息的潜变量编码,同时生成中间的句子表示作为高层计划向量,实验结果表明多层结构能够生成更加连贯且不重复的长文本,并进一步缓解了后验坍缩问题。
Feb, 2019
通过使用改良后的 VRNN 模型和离散潜在向量来提取对话结构,我们的方法在预测未见数据方面具有优异性能,并在加入对话结构后的奖励功能设计实现了更快的强化学习收敛和更好的结果。
Apr, 2019
本文介绍了一种新的变分自编码器模型 MusicVAE,利用层次化解码器结构用于序列数据建模,解决了长程序列结构状态建模的问题,并实现了更好的采样、插值和重构表现。
Mar, 2018