使用深度潜变量模型进行文本生成可以提高标准编码器 - 解码器模型的效果,同时保持深度神经网络的表达能力。
Mar, 2022
本文探讨了深度潜变量模型中精确似然的一般性质及其在实践中的应用,特别是关于参数估计和缺失数据插补。作者介绍了一种基于条件似然的算法,用于深度潜变量模型中的缺失数据插补,并在多个数据集中对比了该算法和通常用于 DLVMs 的插补方案,结果表明该算法显著优于传统方案。作者还探讨了无约束模型似然函数无界的问题及其在模式崩溃中的作用,并提出了确保最大似然估计存在的方法。
Feb, 2018
通过引入一个通用变分推断框架来构建生成式和条件文本模型的变分推断网络,我们验证了该框架在生成式文档建模和监督式问题回答两个不同的文本建模应用中的有效性。
Nov, 2015
本文提出一种新的分段常数分布作为一种复杂的潜在因素分布,以更好地建模实际数据集中的多模式潜在因素,实验结果表明,我们的方法在自然语言处理任务中实现了显著的提高。
Dec, 2016
通过向生成式文本分类器引入离散潜变量,并探究几种图模型配置,我们提高了它的性能,尤其在小数据集下,同时分析了模型的可解释性。
Oct, 2019
本文提出了一种基于采样的变分分布表示方法,用于自然语言生成中 deep latent variable models,并通过最大化互信息的正则化来解决 posterior collapse 问题,进一步发展了 VAE,并在多个文本生成场景中证明了其有效性和通用性。
Aug, 2019
本文研究了将潜在随机变量引入到循环神经网络(RNN)的动态隐藏状态中,结合变分自编码器,通过高级潜在随机变量建立了变分循环神经网络(VRNN),可以很好地建模结构化序列数据,如自然语音。通过对四个语音数据集和一个手写数据集的实证评估,证明了潜在随机变量在 RNN 动态隐藏状态中的重要作用。
Jun, 2015
这篇论文介绍了神经方法在主题建模中的应用,特别是提供可参数化分布以允许可变参数下的后向传播,同时提出了一种递归网络,能够类似于贝叶斯非参数主题模型发现数量概念上无限的主题,在 MXM Song Lyrics,20NewsGroups 和 Reuters News 数据集上得到了实验结果的证明。
Jun, 2017
探讨使用潜变量模型实现神经机器翻译中的条件文本生成性能,通过引入连续潜变量来增强编码器 - 解码器 NMT 范例,利用 Inference Network 中的共同关注机制来扩展该模型,使用不同方法试图缓解后验崩溃问题,并且探究学习潜空间的能力,该模型能有效地优化翻译模型。
Dec, 2018
本文提出了一种基于主题的离散潜变量模型,通过向量量化学习句子对表示的共享潜空间,进一步将量化表示注入基于语义驱动的注意力机制变压器语言模型,以提高语义相似性的性能。
Nov, 2022