本文探讨如何在低资源情况下,使用深度神经网络等技术进行长篇法律文件的自动摘要,本文提出了一种基于 GPT-2 的算法,基于语言模型的困惑度,识别出最具有表现力的句子,在提取摘要时提供有效支持,并且该方法胜过了全球其他对手的显著度检测基线。
Mar, 2021
本文研究使用 Transformer 技术来提高自动文本摘要的效率,提出基于检索的方法,可以降低处理整个文档的成本。实验结果表明,相较于基线,该方法的存储占用更少,且保证了文本摘要的可靠性。
Dec, 2022
本文采用神经抽象总结的方法来产生长文档的抽象总结,该方法使用一个简单的抽取步骤来生成一个摘要,然后将其用作相关信息的转换器语言模型的条件,然后生成一个摘要。我们展示了这个抽取步骤显著地改善了总结结果,而且这种方法产生的抽象总结比以前采用复制机制的工作能够实现更高的浸润得分。
Sep, 2019
本论文提出一种快速、精准的摘要生成模型,该模型首先选择重要句子,然后使用新颖的基于句子级的策略梯度方法实现两个神经网络之间的其它计算,最后生成简洁的总体摘要。该模型在 CNN/Daily Mail 数据集上的表现达到了最新的最佳水平,并且具有更高的抽象性得分,同时也展示出相较于之前的长段落编码 - 解码模型,更快的推断速度和训练收敛速度优势,而且在 DUC-2002 数据集上表现更优。
May, 2018
通过学习自单一人类摘要信息,我们提出了一种神经网络摘要模型,该模型可以生成从纯粹提取式到高度生成式的多种摘要假设,并在控制文本复制的同时实现训练和解码阶段内的控制,从而实现了竞争性的结果。
Nov, 2019
本文提出了一种神经摘要模型,能够通过简单而有效的机制实现用户对文本长度、风格、感兴趣的实体等高级属性的控制,以生成符合用户需求的高质量摘要,并在 CNN-Dailymail 数据集上优于现有的自动化系统和人工评价。
Nov, 2017
用基于注意力机制的神经网络模型,依据重要性进行采样的方法,生成更优于现有方法的电影评论和争论的摘要。
Jun, 2016
本文提出两个方法以弥补 Transformer-based summarization 模型在内容选择方面表现不佳和训练策略效率不高的缺陷,使得模型可以更好的理解要点,同时引入课程学习的方法提高了训练速度和质量,并用 Reddit TIFU 数据集和其他三个跨领域总结测量我们的模型的有效性,同时进行了人类评估表明所提出的方法在流畅性、信息量和整体质量等质量标准上具有良好的效果。
Feb, 2023
本文提出了一种基于查询的文章摘要生成模型,使用新闻文章摘要数据集训练了指针生成模型,通过与参考摘要的相似度评估生成的摘要,结果表明可以构建类似于抽象式摘要的神经网络模型,使用查询生成有针对性的摘要。
Dec, 2017
本文探讨了利用 Transformer-based 系统概括多领域科学研究论文的问题,并设计了两种不同类型的概述手段,即 LaySumm 和 LongSumm,使用 ROUGE 指标有效评估了本文系统的优越性。
Jan, 2021