May, 2022

基于梯度的语言模型约束采样

TL;DR该论文探讨了从预先训练的语言模型中受约束地生成文本的问题,并介绍了一种名为 MuCoLa 的采样过程,通过组合语言模型的对数可能性与任意(可微分)约束,以及使用 Langevin Dynamics 定义的马尔科夫链来生成文本。结果显示,MuCoLa 在避免有害信息、情感控制和关键词引导生成等任务中都获得了显著的性能提升。