通过 ConFiT 训练方法及一系列的模块化目标来改善抽象型对话摘要的事实准确性,最终生成的摘要数据质量得到了显著提高。
Dec, 2021
通过对比学习框架和事实度指标的最新发展,本文提出了一种简单而有效的对比学习框架,实证研究表明该框架能够通过对比奖励学习从事实度指标的反馈中学习,从而在人类评估中生成更加符合事实的摘要,这表明学习和评估算法的进一步发展可直接提供更加符合事实的摘要。
Jul, 2023
本文提出了一种名为 EFACTSUM 的候选摘要生成和排名技术,旨在在不牺牲摘要质量的前提下提高摘要的事实性。通过使用对比学习框架并结合两个度量,训练出的模型在 XSUM 和 CNN / DM 上相对于基本模型均有显著的事实性和相似性改进。
May, 2023
本文提出了一种对比学习模型,用于文本摘要的有监督抽象,通过将文档、其黄金摘要和模型生成的摘要视为同一平均表示的不同视图,并在训练过程中最大化它们之间的相似性,从而改进了强序列到序列的文本生成模型(即 BART)。人类评估也显示,我们的模型与没有对比目标的对应模型相比,实现了更好的忠实度评分。
Sep, 2021
通过分析对知识冲突的鲁棒性,本文研究了基于微调的抽象概括模型,发现并引入了一种可控的反事实数据增广方法来增强事实适应性,并在两种预训练语言模型(PEGASUS 和 BART)以及两个微调数据集(XSum 和 CNN/DailyMail)上实验证明,该方法在实现原始数据集上的事实一致性的同时提高了事实适应性。
Feb, 2024
分析了神经文本生成模型在抽象文档摘要生成方面的局限性,并发现这些模型非常容易产生虚假内容。人类评估显示,预训练模型生成的摘要不仅在原始度量标准(即 ROUGE)方面更好,而且在生成忠实和真实摘要方面也更好,文本蕴含度量更好地相关于忠实度,有可能成为自动评估度量标准以及训练和解码标准的前景。
May, 2020
提出使用对比学习来减少低质量文摘的可能性,同时增加黄金文摘的可能性,以解决 Encoder-decoder 模型在训练和推理中的偏差问题,并在实验中证明这种方法有效地提高了最先进模型在不同数据集上的性能。
Aug, 2021
通过对替身候选生成和选择的研究,我们提出了一个模型无关的后处理技术来修正当前神经抽象摘要生成模型中常见的不忠于原始内容的摘要幻觉现象,我们学习了一个判别式修正模型并证明,通过替代抽象式中的具名实体和数量标识来代替同源文本中语义相似类型的实体可以有效识别和修正这些不符合原文本实质的幻觉,希望此方法可以为未来的神经抽象摘要生成方向的研究提供新的思路。
Apr, 2021
提出了一种基于句法和信息提取的双重注意序列到序列框架,该框架旨在解决抽象汇总中存在的虚假事实问题,并使生成的汇总同时具有信息丰富性和语义准确性。
Nov, 2017
通过使用符号知识蒸馏方法改善小型预训练模型的事实一致性,我们在对话摘要中取得了更好的事实一致性,同时保持了连贯性、流畅性和相关性。
Jun, 2024