Oct, 2023

可控多文档摘要:基于大型语言模型奖励的覆盖和连贯直观策略

TL;DR使用内存高效的大型语言模型进行文本精炼有助于提高可阅读性,而在长文本输入的文本生成任务中,如多文档摘要,控制性是一个需要关注的问题。本文研究了一种用于多文档摘要的通用的可控方法,利用大型语言模型来提炼文本。具体来说,我们训练了一个可控的内容提取方案,用于提取需要由大型语言模型提炼的文本。该方案采用了一种新颖的覆盖和连贯性直观策略,并由一个被动训练的大型语言模型适当地奖励。我们的方法在使用 ROUGE 指标进行评估时取得了有竞争力的结果,并在人工评估中在连贯性方面胜过潜在的基准。