一种插拔式控制文本生成方法
该研究提出了一种简单的方法 —— 插拔式语言模型(PPLM),结合预训练语言模型和一个或多个简单的属性分类器来进行可控语言生成,其通过属性模型推动预训练语言模型的隐层激活,从而实现对话题和情感样式的控制。
Dec, 2019
通过 Plug-and-Blend 框架在人工输入多个控制代码的情况下,通过使用不同的生成语言模型进行自动故事生成并不断优化和生成流畅的故事,实现了主题的宽松和细粒度控制,并实现了叠加和混合主题。
Mar, 2021
提出了一种新颖的使用预训练语言模型进行灵活属性控制的文本生成方法,通过动态调整生成文本的分布,修改提示信息,限制语言模型的输出空间并影响所需属性,在 PLM 和 PPC 之间实现协作,通过 RLDAF 方法在推理过程中改进文本生成的顺畅性,实验证明该方法在多个评估指标下(包括文本流畅性和属性一致性)优于之前的方法。
Feb, 2024
本文介绍了一些控制文本生成的方法以增强语言生成模型的创造力和公平性,包括层级生成和约束解码,并应用于故事、诗歌、比喻语言的创意生成,以及减少生成模型的社会偏见。
Sep, 2022
该研究设计了一个交互式写作辅助框架,它利用基于 Transformer 的语言模型为作者提供可能的续写文本主题,并允许作者选择其中一部分以引导生成,研究表明该框架的主题选择比标准的聚类方法更好且自监督的训练能够产生流畅且相关的句子。
Mar, 2021
该研究提出了一个基于自然语言的控制生成任务,可将一系列事实扩展为更长的叙述,并通过引入人类评估指标和大型训练数据集的方法评估了三种方法,证明了自回归的单向语言模型如 GPT2 的生成流畅度更好,但很难遵循所请求的事实,提出了一个基于计划和填空模型的解决方案(使用精细调整的 XLNet),其生成流畅度有竞争力,同时遵循所请求的内容。
Dec, 2020
本文提出了一种新的软性提示调整方法,通过在 T5 模型的编码器和解码器级别都使用软性提示实现控制性文章生成,并研究了一个附加的软提示与 T5 模型的解码器相关性表现。作者通过内在和外在评估,以及人工生成数据,发现这个模型在与仅在编码器级别使用单个软提示的 T5 模型相比,在产生更好的结果。并且使用这个人工生成的数据进行的情感分类器训练可以产生与使用真实标记的数据训练的分类器相当的分类结果,并且分类器的决策与输入文本内容具有可解释性。因此,此模型可以将生成的文本用于 AI 相关任务。
Dec, 2022
本文通过指导树遍历过程中使用鉴别器推导所需的限制条件,探讨了如何在解码过程中进一步控制基于 Transformers 的大型语言模型(LM)生成的长文本,从而避免对 LM 进行微调。此方法相对于微调又更易于并且训练代价更小,同时允许更细致、更动态地应用限制条件。在评估了多种搜索和重新排序方案后,表明基于鉴别器引导的 Monte Carlo Tree Search 解码方法可以在两种限制条件和语言(法语和英语)中以最先进的效果,得到多样性鼓励下基于重新排序的其他解码方法相当好的效果。
Sep, 2021