Sep, 2021

文本摘要的序列级对比学习

TL;DR本文提出了一种对比学习模型,用于文本摘要的有监督抽象,通过将文档、其黄金摘要和模型生成的摘要视为同一平均表示的不同视图,并在训练过程中最大化它们之间的相似性,从而改进了强序列到序列的文本生成模型(即 BART)。人类评估也显示,我们的模型与没有对比目标的对应模型相比,实现了更好的忠实度评分。