Sep, 2022

从反例中学习连贯写作

TL;DR本研究提出了一种通过利用负面例子来提高神经编码器-解码器自然语言生成模型的连续性的写作相关性(WR)训练方法,着重于语境和生成的句子的矢量表示,将其与负面例子进行对比,并将其与常识自然语言推理中的Unlikelihood(UL)训练方法进行比较,以展示哪一种方法更好地建模了连续性。人类评估的首选方法表明了我们的方法提高连续性的功效。