分层计划推理摘要信息补充
提出使用层次感知图神经网络(HierGNN)实现文档结构层次分析的自动摘要模型,在 CNN / DM 和 XSum 数据集上分别取得了平均 ROUGE-1/2/L 为 0.55 和 0.75,在人工评估中也证明了其比基线具有更高的内容相关性和较少的冗余。
Nov, 2022
通过提出的 HiStruct+ 模型,将 Transformer-based language models 中的层级结构信息显式注入到提取式文摘模型中,提高了 PubMed 和 arXiv 数据集中提取式文摘的 ROUGEs 指标,实验发现:数据集对模型效果的影响是关键因素,数据集中的明显层级结构可以取得更大的性能提升,而在模型的表现中,层级位置信息的贡献最大。
Mar, 2022
本文提出了一种基于文档精华提取的文本摘要方法,并通过引入语言因素和改进神经网络如 LSTMs 和 Neural Semantic Encoders,利用自我强化学习模型进一步提高了文本摘要的质量,实现并超越了文本摘要领域的最佳性能,其中基于分层 NSE 模型的 ROUGE 值提升近 4 个百分点。
Oct, 2019
本文提出了一种新颖的抽象会议摘要网络,采用分层结构和角色向量来处理会议记录,并在大规模新闻摘要数据上预训练模型,实现了在 ICSI 数据集上自动指标和人工评价方面的表现优于之前的方法。
Apr, 2020
从无标注数据中预训练了一种能够包括来自整个文档的上下文信息的分层文档表示,包括定长的句子 / 段落表示,并应用于文档分割、文档级问答和抽取式文档摘要等方面取得了有效结果。
Jan, 2019
本文提出了一种神经网络归纳模型,能够有效地处理多个输入文档,并利用 Transformers 架构对文档进行层次编码,通过注意力机制来表示跨文档之间的关系,并学习文本单元之间的潜在依赖关系,在 Wikisum 数据集上的实验证明,所提出的架构比数个强基线模型都有明显的改进。
May, 2019
我们提出了 HAESum,一种利用图神经网络在基于分层话语结构的文档中进行局部和全局建模的新方法。通过使用局部异构图来学习句内关系,然后引入一种新颖的超图自注意层以进一步增强句间高阶关系的表征,在两个基准数据集上验证了我们的方法,实验结果表明考虑分层结构在建模长篇科技文档中的重要性以及 HAESum 的有效性。
May, 2024