关键词abstractive summarization models
搜索结果 - 7
- 面向方面的消费者健康答案摘要
我们的研究关注于健康答案的基于方面的总结,以解决信息不全的问题。我们提出了一个多阶段的注释指南和一个独特的数据集,包括基于方面的人工编写的健康答案总结。我们利用该数据集构建了一个自动化的多方面答案总结流程,使用了几种最先进的模型进行特定任务 - ACL基于微调的抽象摘要模型的实体级事实可适应性
通过分析对知识冲突的鲁棒性,本文研究了基于微调的抽象概括模型,发现并引入了一种可控的反事实数据增广方法来增强事实适应性,并在两种预训练语言模型(PEGASUS 和 BART)以及两个微调数据集(XSum 和 CNN/DailyMail)上实 - ACL通过对比奖励学习提高抽象摘要生成的准确性
通过对比学习框架和事实度指标的最新发展,本文提出了一种简单而有效的对比学习框架,实证研究表明该框架能够通过对比奖励学习从事实度指标的反馈中学习,从而在人类评估中生成更加符合事实的摘要,这表明学习和评估算法的进一步发展可直接提供更加符合事实的 - 无监督摘要重新排名
本文提出一种无监督的方法,对摘要生成的可选方案进行重新排名,以缩小无监督和有监督模型之间的性能差距。与四个广泛采用的摘要基准相比,该方法将预训练的无监督 PEGASUS 的相关平均 ROUGE 增加了 4.37% 至 7.27%,并在 30 - EMNLP互信息在抽象摘要中减轻幻觉
本文发现了一个简单的标准 —— 模型不确定性高 —— 会导致生成更多的错误内容(即幻觉),并提出了一种解码策略,该策略在存在不确定性时优化源和目标单词的点间互信息,从而减少幻觉的出现,并在 XSum 数据集上进行了实验证明,该方法降低了幻觉 - ACL高效的少样本微调技术在观点摘要中的应用
本文提出一种高效的 few-shot 方法来训练与顾客评论相关的摘要模型。该方法利用适配器进行预训练,并在大量未注释的顾客评论和少量人工注释样本上进行微调。实验结果表明,与标准微调相比,自我监督的适配器预训练可以提高摘要质量,减少语法错误和 - ACL询问和回答问题以评估摘要的事实一致性
该研究介绍了一种名为 QAGS 的自动评估协议,用于识别生成的摘要中的事实不一致性,并提供了一种自然的可解释性方法,这种方法是基于提出问题并对摘要和源回答问题的引导下实现的。实验结果表明,与现有的自动评估度量相比,QAGS 具有更高的相关性