混合搭配:能量语言模型控制的无需学习文本生成
本文旨在通过学习简化的语义分离潜在表示来生成和控制自然语言句子,同时通过变分自编码器和全局属性判别器的组合来建立新的神经生成模型。该模型具有可解释性和高效性,可以生成符合要求的具有各种属性的句子。量化评估验证了该模型的生成准确性。
Mar, 2017
提出一种简单而灵活的方法,通过对齐分离的属性表示,控制文本生成,用于控制情感极性或特定主题的目标属性。与之前的方法不同,我们使用相同的数据学习对齐函数,而不是通过训练鉴别器来扰动属性的令牌级分布。我们在情感极性和主题控制生成上评估了我们的方法,并表现出大幅度的性能提升,同时保持流畅性和多样性。
Mar, 2021
引入一个名为 Gamma Sampling 的新方法,该方法无需任何的训练数据即可进行可控的语言生成,并在生成时间上保持快速性,实验证明,用于 GPT2 时,Gamma Sampling 在生成样本的多样性、属性相关性和总体质量方面优于代表性基线方法。
May, 2022
能量基语言建模与 Metropolis-Hastings 抽样器相结合可实现更高效和准确的文本生成,通过迭代提示大型语言模型,允许在每个步骤中对整个序列进行重写,从而确定生成长度和提高下游性能。
Dec, 2023
该研究提出了一种简单的方法 —— 插拔式语言模型(PPLM),结合预训练语言模型和一个或多个简单的属性分类器来进行可控语言生成,其通过属性模型推动预训练语言模型的隐层激活,从而实现对话题和情感样式的控制。
Dec, 2019
通过利用黑盒语言模型的文本输出,以生成的文本中最相关的部分为约束进行编辑,Locate&Edit (L&E) 提出了一种有效而灵活的能量模型方法,既能保留基本语言模型的原始生成结果,又能满足相关的约束条件。
Jun, 2024
通过该研究,我们提出了一种能够修改文本内容以满足先决条件要求的模型,其通过建立重建和生成关系实现条件兼容和多属性控制。经过定量、定性和人类评估的验证,证明该模型与以往的方法相比,其生成了更加符合先决条件的流畅的句子。
Nov, 2018
提出了一种名为 MuCoCO 的算法,通过将编码过程转化为优化问题,并通过拉格朗日乘数法和梯度下降技术生成期望的文本,从而实现对预训练模型生成文本属性的控制。在可控机器翻译和风格转移方面的实验表明,该方法显著优于基准模型。
Aug, 2021
本文提出一种基于分布式方法的控制文本生成方案,旨在在单个形式框架中指定 “点对点” 和 “分布式” 约束,实现与初始 LM 分布 KL 散度最小的目标 LM 的训练。同时,基于 Energy-Based Model 表示确定最优目标分布。该方案通过自适应分布式模型改进了 Policy Gradient. 作者在实验中表明,该方案在满足约束方面较其它方法具有优势。实验结果还表明该方案应对了语言模型中 “偏见” 的问题。
Dec, 2020
大语言模型(LLM)的平滑控制在文本生成中具有重要意义,本论文提出了评估生成文本属性强度范围、校准度和一致性以及其与预期语境的相关性的度量指标,通过引入 Elo 评级系统和 GPT4 的评估方法来量化属性强度和上下文相关性,并研究了两种无需训练的实现语言模型平滑控制的方法:使用语义转换器进行提示和修改内部模型表示。
Jun, 2024