本文介绍了 CEV-LM,一种轻量级半自回归语言模型,利用约束编辑向量来控制文本的速度、音量和曲折度这三个衡量文本形状的指标,研究表明 CEV-LM 能够更精确地控制这三个指标,同时保持语义内容、使用更少的训练数据和参数。
Feb, 2024
本文介绍了一些控制文本生成的方法以增强语言生成模型的创造力和公平性,包括层级生成和约束解码,并应用于故事、诗歌、比喻语言的创意生成,以及减少生成模型的社会偏见。
Sep, 2022
使用模型算术,我们可以对大型语言模型进行组合和偏置,同时使得生成的文本具有更精确的控制,并且在毒性减少任务上表现优于现有技术。
Nov, 2023
本研究旨在使用自然语言生成技术快速生成英语语言学习应用的内容,并控制生成的结果以满足相关要求。根据语言学习水平及语法结构等因素,我们尝试使用预训练深度模型进行控制,评价结果表明,我们可以控制实现多样化、定制化内容的同时,实现较高的语法质量。
Nov, 2022
本文提出了一种语义基础的语言模型方法,将语言模型嵌入到自编码器中,在保持语义解析器冻结的同时通过采样和训练提高了自动生成的文本的流畅度和语义准确性,使用 BLEU 分数和标准解析度量在 English WebNLG 3.0 数据集上进行实验,并通过人工评估验证了自动评估实验的结果。
本研究提出了一种基于连续扩散的非自回归语言模型 Diffusion-LM,在语言生成的过程中能够通过简单的基于梯度的算法实现复杂的可控生成任务,并成功地应用在六个难度较大的细粒度控制任务之中,表现出优秀的性能。
May, 2022
通过引入适应性框架 Ctrl-G,该研究提出了一种可实现对大型语言模型的可控生成的方法,并将其应用于交互文本编辑和有限状态自动机表示的逻辑约束,结果显示 Ctrl-G 在人类评估中相比于 GPT4 以及 GPT3.5 取得了 30% 以上的满意率提升,并在标准基准测试中超越了中型语言模型。此外,该研究还进行了 Grade School Math 基准测试作为概念验证,展示了 Ctrl-G 在辅助大型语言模型推理方面的潜力。
Jun, 2024
本文提出了一种新的方法,通过找到生成模型中有意义的方向来提高生成模型潜在空间的可解释性,从而精确地控制生成图像的特定属性,如位置或比例。该方法对于搜索编码生成图像的简单变换方向(如平移,缩放或颜色变化)特别适用,并在 GAN 和变分自动编码器模型的质量和量化方面得到了证明。
Jan, 2020
本文提出一种基于分布式方法的控制文本生成方案,旨在在单个形式框架中指定 “点对点” 和 “分布式” 约束,实现与初始 LM 分布 KL 散度最小的目标 LM 的训练。同时,基于 Energy-Based Model 表示确定最优目标分布。该方案通过自适应分布式模型改进了 Policy Gradient. 作者在实验中表明,该方案在满足约束方面较其它方法具有优势。实验结果还表明该方案应对了语言模型中 “偏见” 的问题。
Dec, 2020
通过提出一个框架,使用户能够无缝地探索、评估和综合多种响应,并通过 Luminate 互动系统与 8 名专业作家的用户研究展示了这个框架的可行性和有用性,我们推进了与大型语言模型的创造性任务互动的方式,引入了一种利用大型语言模型的创造潜力的方法。
Oct, 2023