本文旨在通过学习简化的语义分离潜在表示来生成和控制自然语言句子,同时通过变分自编码器和全局属性判别器的组合来建立新的神经生成模型。该模型具有可解释性和高效性,可以生成符合要求的具有各种属性的句子。量化评估验证了该模型的生成准确性。
Mar, 2017
通过文本生成技术,使用编码器 - 解码器生成模型来增加受训人工智能代理的训练数据,从而实现更快地开发新功能。该方法需要直接优化,适用于有限的数据,并明显优于以往的受控文本生成技术。此外,生成的数据用作外在意图分类任务的附加训练样本,增强了低资源情况下高达 5%绝对 f-score 性能的表现,证实了该方法的实用性。
Oct, 2019
本文提出了一种新的方法,通过找到生成模型中有意义的方向来提高生成模型潜在空间的可解释性,从而精确地控制生成图像的特定属性,如位置或比例。该方法对于搜索编码生成图像的简单变换方向(如平移,缩放或颜色变化)特别适用,并在 GAN 和变分自动编码器模型的质量和量化方面得到了证明。
Jan, 2020
文章介绍了一种新的控制框架来实现可控文本生成,并利用概率密度估计在隐藏空间中进行控制,该方法使用可逆变换函数,即 Normalizing Flow,将潜在空间中的复杂分布映射到先验空间中的简单高斯分布,实现了前向控制和反馈控制效果,达到了目前最好的效果。
Dec, 2022
使用深度潜变量模型进行文本生成可以提高标准编码器 - 解码器模型的效果,同时保持深度神经网络的表达能力。
Mar, 2022
本文介绍了一些控制文本生成的方法以增强语言生成模型的创造力和公平性,包括层级生成和约束解码,并应用于故事、诗歌、比喻语言的创意生成,以及减少生成模型的社会偏见。
Sep, 2022
该研究提出了一个基于自然语言的控制生成任务,可将一系列事实扩展为更长的叙述,并通过引入人类评估指标和大型训练数据集的方法评估了三种方法,证明了自回归的单向语言模型如 GPT2 的生成流畅度更好,但很难遵循所请求的事实,提出了一个基于计划和填空模型的解决方案(使用精细调整的 XLNet),其生成流畅度有竞争力,同时遵循所请求的内容。
Dec, 2020
本文提出了一种基于转换器和变分自动编码器(VAE)的条件变分自动编码器(CVAE)方法,在保持卓越的生成效果的同时增强了可控性和表征学习能力,实现了对长文本的神经故事生成。
Jan, 2021
本研究提出了一种新的神经编码 - 解码模型,它将内容选择与表面实现分离,实现了对生成文本内容的控制。该模型在数据到文本和标题生成任务中获得了有希望的结果,为文本生成中的可控内容选择铺平了道路。
Sep, 2019
本文提出一种新颖的生成模型,它将最先进的神经文本到语音技术和半监督概率潜变量模型相结合。通过对某些潜变量进行部分监督,我们能够强制它们具有一致和可解释的特征,这在纯无监督的文本到语音模型中过去是不可能的。我们证明了我们的模型能够可靠地发现和控制语音的重要属性(例如情感和语速),即使只监督 1%(30 分钟)。在这样低的监督水平下,我们观察不到合成质量与最先进的基线水平相比的下降。