一种简单的重要性自动摘要理论模型
本研究提出一种基于自然语言推理和释义识别的模型训练方法,通过解释预测模型的预测结果,得到每个输入标记的重要性分数,并可以分析其语法特征,可用于识别训练中没有明确标记的句子中的重要单词。
May, 2023
本文研究了文本摘要中的背景知识,提出了一种技术来推断摘要数据中的背景知识,设计了能够明确建模背景知识的摘要评分函数,并证明这些函数显著地适合人类判断。
Oct, 2020
我们提出了一种关键词取向的评估指标 ——ROUGE-K,该指标通过定量回答 “摘要中是否包含关键词” 这个问题来评估自动摘要模型是否包含有信息性的单词。通过这种关键词感知的度量方法,我们令人惊讶地发现,当前的一个强基准模型在摘要中常常会遗漏重要信息。我们的分析揭示了人工注释者确实认为包含更多关键词的摘要与源文档更相关。最后,为了增加关键词的包含,我们提出了四种将词重要性融入基于变换器的模型的方法,并通过实验证明这样做可以在保持总体质量的同时引导模型包含更多关键词。
Mar, 2024
本研究提出了一种鲁棒的方法,通过训练文档 - 摘要配对的语料库来检测新闻中内在句子的重要性,并结合‘文档开头’启发式方法,用于单篇文档摘要,得到了比现有先进摘要算法和基线方法更好的结果,这是一个重要的进步。
Feb, 2017
对于神经摘要系统的明显改进及其依赖的语料库的基础逻辑尚未得到广泛探讨,因此本文提出了摘要的三个子方面:位置、重要性和多样性,并针对九个不同的摘要语料库(例如新闻、学术论文、会议纪要、电影剧本和书籍)进行了广泛分析。研究发现,尽管位置在新闻报道中存在重大偏见,但在学术论文和会议纪要等其他领域不是这种情况。此外,我们的经验证明不同类型的自动摘要系统(例如基于神经网络)由不同程度的子方面组成。因此,本研究提供了有关在收集新的摘要数据集或开发新系统时考虑基础子方面的有用信息。
Aug, 2019
本文提出了一种名为 KIEMP 的新方法,该方法使用端到端多任务学习模型,从多个方面综合评估关键词的重要性,包括其句法准确性、信息显著性和概念一致性,并在六个基准数据集上验证了其优于现有技术的性能。
Oct, 2021
本文详细介绍了文本摘要的各种方法,包括提取和抽象两种途径,评估指标、基准数据集与未来的研究展望,并讨论了生成摘要的不同评估方法与相关研究中可能出现的挑战和研究机遇。
Mar, 2022
该论文研究了自动文本摘要技术,提出了外部方法来评估文本摘要的实用性,并设计了三种不同的任务,发现细化模型生成的文摘在整体评价型任务中尤为有用。在人工评估和自动评估指标之间也存在一定的限制性。
May, 2023