语境感知神经提取式文本摘要
使用预训练的神经网络提取文档级别的语篇树,研究发现总结中存在依存和从属语篇信息,这种信息通常被编码为单个头部,覆盖长距离和短距离的语篇依赖性。实验结果表明,学习到的语篇信息具有普适性和领域之间的可传递性。
Apr, 2021
本文提出了一种针对单个较长文档(如研究论文)进行抽象概括的模型,采用新的分层编码器对文章进行语篇结构建模,并运用有意识的编码器生成摘要,实验证明该模型显著优于现有模型。
Apr, 2018
介绍了一种基于 Centering 理论和 BERT 的参数化的 Discourse 评估度量,DiscoScore,在结构连贯性、事实一致性等方面优于当前流行的评估度量 BARTScore。
Jan, 2022
通过提取基于事实的语义单元,并将多级粒度的文本信息结合到模型中,并使用层次图表结合 BERT 模型,我们在 CNN/DailyMail 数据集上获得了最好的结果。
Nov, 2020
本文提出了 BERTSUM,即 BERT 的摘要变体,通过在 CNN / Dailymail 数据集上的评估证明其在提取性摘要方面超越了现有的最佳系统。
Mar, 2019
本文介绍一种使用预处理的深度语境化文本编码器 BERT 来改善自然语言任务,包括抽象概括,并提出一种自我监督的方法来弥补对话概括模型的缺陷。在共享的编码器 - 解码器架构上构建和微调抽象对话概括模型,并在最近引入的 SAMSum 语料库中经验性地评估,证明我们的方法在抽象概括中做出了改进。
Sep, 2022
SciBERTSUM 是一种针对科学论文的摘要框架,通过增加节嵌入层和应用稀疏注意力机制,在长文本(超过 500 句)中表现出更好的 ROUGE 分数。
Jan, 2022
本文提出一种基于 BiLSTM-CRF 框架的端到端神经分割器,为了提高其准确性,我们解决了数据不足的问题,并使用自我注意机制捕捉了有用的邻域信息,实验结果表明,我们的模型在达到新的最佳性能的同时,比以前的方法快得多。
Aug, 2018
本篇论文介绍了使用 Python 的 RESTful 服务 Lecture Summarization Service,利用 BERT 模型和 KMeans 聚类算法对课程内容进行自动摘要,以提供学生便捷的学习方式。该方法虽然有待进一步改进,但是已经取得了令人满意的效果。
Jun, 2019
本文提出了一个新型的文本摘要模型,RSTformer,综合考虑了修辞关系的类型和不确定性,采用基于文档级修辞结构的 RST-attention 机制,取得了显著的性能优势。
May, 2023