BriefGPT.xyz
Sep, 2022
从反例中学习连贯写作
Learning to Write with Coherence From Negative Examples
HTML
PDF
Seonil Son, Jaeseo Lim, Youwon Jang, Jaeyoung Lee, Byoung-Tak Zhang
TL;DR
本研究提出了一种通过利用负面例子来提高神经编码器-解码器自然语言生成模型的连续性的写作相关性(WR)训练方法,着重于语境和生成的句子的矢量表示,将其与负面例子进行对比,并将其与常识自然语言推理中的Unlikelihood(UL)训练方法进行比较,以展示哪一种方法更好地建模了连续性。人类评估的首选方法表明了我们的方法提高连续性的功效。
Abstract
coherence
is one of the critical factors that determine the quality of writing. We propose
writing relevance
(WR) training method for
neural enco
→