具有属性控制的内容保留文本生成
本文旨在通过学习简化的语义分离潜在表示来生成和控制自然语言句子,同时通过变分自编码器和全局属性判别器的组合来建立新的神经生成模型。该模型具有可解释性和高效性,可以生成符合要求的具有各种属性的句子。量化评估验证了该模型的生成准确性。
Mar, 2017
提出一种简单而灵活的方法,通过对齐分离的属性表示,控制文本生成,用于控制情感极性或特定主题的目标属性。与之前的方法不同,我们使用相同的数据学习对齐函数,而不是通过训练鉴别器来扰动属性的令牌级分布。我们在情感极性和主题控制生成上评估了我们的方法,并表现出大幅度的性能提升,同时保持流畅性和多样性。
Mar, 2021
我们提出了一种基于 Transformer 自编码器和快速梯度迭代修改算法的非监督文本属性转移框架,可在不使用任何平行数据的情况下更改特定属性,同时保留其属性独立内容,并且能够灵活控制转移程度和同时转移多个方面。
May, 2019
利用半监督对比学习方法,我们提出一种新的方法来实现属性的稳健控制,并增强内容的保留。通过重新解缠重构的句子并将其与原始潜变空间进行比较,我们实现了一个闭环解缠过程,进一步帮助内容保留。与以往方法不同,对比学习方法能够代替最小化互信息和对抗训练在解缠过程中的作用,从而减少计算成本。我们在三个文本数据集上进行了实验证明了我们模型的有效性。
Dec, 2023
引入了 CGA,一种有条件的 VAE 架构,可用于控制、生成和增强文本,通过对抗学习与上下文感知损失和循环词随机删减程序相结合,能够控制多种语义和句法属性生成自然的英文句子。通过自动和人工评估,证明所生成句子的高质量、多样性和属性控制,用于数据增强的下游 NLP 任务中,相比于强基线和同等数量的真实数据,使用 CGA 模型生成的句子有显著提高,分类性能也有所提升。
Apr, 2020
本论文从因果的角度出发,提出了一种由结构性因果模型构建的可控文本生成框架,并将其应用于集中控制性文本生成领域的实践,实验表明该方法在控制准确性和减少偏差方面具有优势。
Jan, 2022
提出了一种名为 MuCoCO 的算法,通过将编码过程转化为优化问题,并通过拉格朗日乘数法和梯度下降技术生成期望的文本,从而实现对预训练模型生成文本属性的控制。在可控机器翻译和风格转移方面的实验表明,该方法显著优于基准模型。
Aug, 2021
通过文本生成技术,使用编码器 - 解码器生成模型来增加受训人工智能代理的训练数据,从而实现更快地开发新功能。该方法需要直接优化,适用于有限的数据,并明显优于以往的受控文本生成技术。此外,生成的数据用作外在意图分类任务的附加训练样本,增强了低资源情况下高达 5%绝对 f-score 性能的表现,证实了该方法的实用性。
Oct, 2019
通过分布式的角度提供属性融合的观察,建议直接搜索作为它们的生成组合的多个属性分布的交集区域。用自编码器结构估计属性空间,通过共同最小化到表示不同属性的点的距离来迭代地接近交集,最后用基于前缀调整的解码器将其映射到与属性相关的句子中。
Oct, 2022