生成可控的摘要生成器
基于大型语言模型(LLMs)进行可读性控制的文本生成是个性化应用的重要方向,本论文引入了一种名为 “Readability-Controlled Instruction Learning (ReadCtrl)” 的新方法,通过这种方法可以调整 LLMs,以适应用户的可读性水平。与传统方法不同的是,该方法引入了一种动态框架,使 LLMs 能够在各种复杂性水平上生成内容,从而增强了它们在不同应用中的适用性。研究结果表明,ReadCtrl-Mistral-7B 模型在人工评估中以 52.1%:35.7% 的胜率明显优于强大的基准模型,例如 GPT-4 和 Claude-3。此外,ReadCtrl 在自动评估中表现出显著改进,通过更好的可读性指标(如 FOG,FKGL)和生成质量指标(如 BLEU,SARI,SummaC-Factuality,UniEval - 一致性和连贯性),说明 ReadCtrl 在产生与目标可读性水平密切匹配的高质量、上下文适应性强的输出方面具有有效性和韧性,标志着 LLMs 在个性化内容生成方面的重大进展。
Jun, 2024
文本简化和增加复杂性的任务是为了提高阅读理解的测试的复杂度控制而有限的。我们提出了一种新颖的可控阅读度的文本修改任务,其中通过生成 8 个不同目标阅读度级别的版本来实现对输入文本的阅读度的绝对修改。此任务的基准是使用 ChatGPT 和 Llama-2,引入了一个两步过程的扩展方法(通过两次经过语言模型的生成重述)。零样本方法能够将改写的阅读度推向所需方向,但最终的阅读度与原始文本的阅读度仍然存在相关性。我们还发现,阅读度的变化程度与源文本和目标文本之间的语义和词汇相似性的降低程度存在较大的相关性。
Sep, 2023
使用内存高效的大型语言模型进行文本精炼有助于提高可阅读性,而在长文本输入的文本生成任务中,如多文档摘要,控制性是一个需要关注的问题。本文研究了一种用于多文档摘要的通用的可控方法,利用大型语言模型来提炼文本。具体来说,我们训练了一个可控的内容提取方案,用于提取需要由大型语言模型提炼的文本。该方案采用了一种新颖的覆盖和连贯性直观策略,并由一个被动训练的大型语言模型适当地奖励。我们的方法在使用 ROUGE 指标进行评估时取得了有竞争力的结果,并在人工评估中在连贯性方面胜过潜在的基准。
Oct, 2023
总结特定用户的需要和意图,关注于开发更贴合特定目标和用户需求的文本摘要方法。最近的学术关注点转向了更可控的摘要方法的发展,但缺乏全面的调查来深入探索在这一背景下所使用的各种可控性方面或属性,并研究现有的解决方案。在本调查中,我们形式化了可控文本摘要任务,根据它们的共享特征和目标将可控性方面进行分类,并对每个类别中的现有方法和数据集进行了全面的研究。此外,根据我们的调查结果,我们发现了一些限制和研究空白,同时也探讨了 CTS 的潜在解决方案和未来发展方向。
Nov, 2023
本文提出了一种神经摘要模型,能够通过简单而有效的机制实现用户对文本长度、风格、感兴趣的实体等高级属性的控制,以生成符合用户需求的高质量摘要,并在 CNN-Dailymail 数据集上优于现有的自动化系统和人工评价。
Nov, 2017
语言模型在标准的概括基准测试中已经取得了强大的性能,但在更复杂的概括任务设置上的表现却鲜少被研究。本研究基于指令可控的文本概括对语言模型进行评估,并使用多种评估协议和多个语言模型进行了自动评估。研究结果表明,指令可控的文本概括对于语言模型仍然是一个具有挑战性的任务,存在各种错误和性能差异。我们公开提供了我们的评估基准 IntruSum,以促进未来的相关研究。
Nov, 2023
CTRLsum 是一种用于可控摘要的新型框架,它能够使用户通过文本输入关键词或描述性提示来控制生成摘要的多个方面,在不需要额外人工注释或预定义训练期间的控制方面的情况下,在三个领域的摘要数据集和五种控制方面中得到量化证明,并在 CNN/DailyMail 数据集上取得了最先进的结果。
Dec, 2020
该论文提出了一种能够精确控制文本长度的文本生成框架,可以生成指定数量的词语或句子的摘要,且在维持或提高文本质量的同时,通过联合训练模型预测长度,实现生成最佳长度的摘要。作者对该框架在 CNNDM 数据集上进行了评估,结果表明其性能优于现有方法。
May, 2023