为生成事实一致的文本摘要进行反事实去偏置
研究表明,使用神经编码器 - 解码器模型等抽象方法能够更好的进行生成摘要,但是由于摘要的抽象性较高,导致文章中存在失真和伪造的问题,因此当前的研究主要集中在设计新的评估算法和开发新的摘要系统以解决这一问题。本文综合评述了这些基于事实的评估方法和文本摘要模型。
Apr, 2021
文章提出了一种基于事实感知的自动摘要模型 FASum,通过图注意力来提取和整合摘要生成过程中的事实关系,并设计了一个名为 FC 的事实校正模型来自动纠正现有系统生成摘要中的事实错误。实证结果表明,基于事实感知的自动摘要可以生成具有更高事实一致性的抽象摘要,并且纠错模型通过只修改少量关键词就可以提高给定摘要的事实一致性。
Mar, 2020
本文提出了一种名为 EFACTSUM 的候选摘要生成和排名技术,旨在在不牺牲摘要质量的前提下提高摘要的事实性。通过使用对比学习框架并结合两个度量,训练出的模型在 XSUM 和 CNN / DM 上相对于基本模型均有显著的事实性和相似性改进。
May, 2023
本文提出了一种基于遮罩的方法,使用源文本和关键信息屏蔽的参考摘要来生成真实不一致的摘要,这些摘要被用于训练分类器来判断一个产生的摘要是否与源文本事实一致;在七个基准数据集上进行的实验表明,使用我们的方法生成的摘要训练的分类器通常优于现有模型,并且表现出较高的与人类评估结果的相关性,我们还分析了使用我们的方法生成的摘要的特点。
May, 2022
该文章介绍了一种基于对抗数据增广的方法,用于提高 Abstractive summarization system 的 factual correctness, 相关方法包括将同一或不同类别的实体或名词的 WordNet hypernyms 进行替换,实验证明,使用我们的方法对 CNN/Dailymail 和 XSum 等数据集进行训练,可将 factual correctness 平均提高约 2.5 个点。
May, 2022
通过分析对知识冲突的鲁棒性,本文研究了基于微调的抽象概括模型,发现并引入了一种可控的反事实数据增广方法来增强事实适应性,并在两种预训练语言模型(PEGASUS 和 BART)以及两个微调数据集(XSum 和 CNN/DailyMail)上实验证明,该方法在实现原始数据集上的事实一致性的同时提高了事实适应性。
Feb, 2024
本文研究了文本自动摘要中的事实正确性问题,提出了减少混淆因素的多任务模型,并且实现了在 AnswerSumm 数据集上准确性和信实度均有提升。
Dec, 2022
本文提出了一种解决摘要生成模型中可能存在错误信息的方法,策略包括评估指标度量、新型学习算法、人工评估等,并通过大量实验证明该方法对提高信息事实准确性和提高摘要整体质量都非常有效。
May, 2021