AWESOME: 利用内存机制和全局显著内容进行 GPU 内存受限的长文档摘要
本论文介绍了一种基于强化学习并且能够逐步提取文本摘要的 MemSum 摘要器,它在每一步都可以使用包括文本内容、全局文本上下文和提取历史在内的信息集合来决定摘要中摘录哪些句子;经对 PubMed、arXiv 和 GovReport 等长文档进行测试,该轻量架构模型的 ROUGE 性能处于领先水平;消融研究证明了局部、全局和历史信息的重要性;人类评估也印证了 MemSum 生成的摘要质量高且冗余度低。
Jul, 2021
本研究提出使用 local self-attention 和 explicit content selection 两种方法来应对长篇文档摘要中的长跨度依赖,并利用大型预训练变压器模型在 Spotify Podcast、arXiv 和 PubMed 等标准数据集上进行实验,证明两种方法的组合可以在 3 个任务中实现 ROUGE 得分的最优结果。此外,与现有算法相比,在没有大规模 GPU 计算机卡的情况下,本研究的方法也可以实现相当或更好的结果。
May, 2021
本文提出了一种新颖的神经网络抽取式文档摘要模型,结合整个文档的全局上下文和当前主题内的局部上下文;我们在 Pubmed 和 arXiv 两个科学论文数据集上评估了该模型,并在 ROUGE-1,ROUGE-2 和 METEOR 分数上优于以前的工作,包括抽象模型和提取模型;更为惊讶的是,消融分析表明,我们的模型的好处似乎仅来自于对局部上下文的建模,即使对于最长的文档。
Sep, 2019
本研究基于多任务学习方法,利用文件的层次结构生成长篇文献的扩展摘要,并在三个大型数据集上验证其优于其他强基准模型的性能,为长篇文献摘要生成任务的未来研究提供了深入的洞见。
Dec, 2020
本文研究使用 Transformer 技术来提高自动文本摘要的效率,提出基于检索的方法,可以降低处理整个文档的成本。实验结果表明,相较于基线,该方法的存储占用更少,且保证了文本摘要的可靠性。
Dec, 2022
本文提出了一种针对单个较长文档(如研究论文)进行抽象概括的模型,采用新的分层编码器对文章进行语篇结构建模,并运用有意识的编码器生成摘要,实验证明该模型显著优于现有模型。
Apr, 2018
本文探讨如何在低资源情况下,使用深度神经网络等技术进行长篇法律文件的自动摘要,本文提出了一种基于 GPT-2 的算法,基于语言模型的困惑度,识别出最具有表现力的句子,在提取摘要时提供有效支持,并且该方法胜过了全球其他对手的显著度检测基线。
Mar, 2021
使用内存高效的大型语言模型进行文本精炼有助于提高可阅读性,而在长文本输入的文本生成任务中,如多文档摘要,控制性是一个需要关注的问题。本文研究了一种用于多文档摘要的通用的可控方法,利用大型语言模型来提炼文本。具体来说,我们训练了一个可控的内容提取方案,用于提取需要由大型语言模型提炼的文本。该方案采用了一种新颖的覆盖和连贯性直观策略,并由一个被动训练的大型语言模型适当地奖励。我们的方法在使用 ROUGE 指标进行评估时取得了有竞争力的结果,并在人工评估中在连贯性方面胜过潜在的基准。
Oct, 2023
提出了一种基于 AspMem 的生成式方法,其中包含一组存储方面相关知识的存储器单元,可用于生成更好的意见表示并更精确地推断方面信息,从而在方面识别和意见摘要任务中胜过现有方法。
Nov, 2019