基于语义相关性的神经网络文本摘要与简化
本文通过引入一种基于语义相关性的神经模型,旨在提高汉语社交媒体摘要中源文本和摘要之间的语义相关性,使用编码器 - 解码器框架,通过最大化表示之间的相似性得出结论,实验表明,该模型在社交媒体语料库上优于基线系统。
Jun, 2017
通过对序列到序列模型进行改进,将单词难度、生成多样性等因素纳入损失函数并在测试时使用多个简化候选项进行筛选、排序,成功提高了句子简化的质量,并取得了与最先进系统相媲美的自动化和人工评估成果。
Apr, 2019
本文提出了一种基于文档精华提取的文本摘要方法,并通过引入语言因素和改进神经网络如 LSTMs 和 Neural Semantic Encoders,利用自我强化学习模型进一步提高了文本摘要的质量,实现并超越了文本摘要领域的最佳性能,其中基于分层 NSE 模型的 ROUGE 值提升近 4 个百分点。
Oct, 2019
通过结合单词级和句子级的简化方法,本研究提出了一个两步简化框架,并利用约束神经生成模型的方法对简化后的单词进行句子简化,取得了比各种基线模型更好的性能表现。
Apr, 2017
本研究介绍了一种创新的文本摘要方法,利用图神经网络(GNNs)和命名实体识别(NER)系统的能力,以提高摘要的效率和内容的相关性,为处理信息饱和世界中日益增长的文本数据量提供了一个有希望的方向。
Feb, 2024
本文综述了近期在基于神经网络的自动文本摘要中的十种最先进的神经网络模型,其中包括五种生成式模型和五种抽取式模型,并讨论了应用于摘要任务的相关技术和未来研究的有前途的方向。
Mar, 2018
本论文提出了一种基于自动语义分析器的简单有效的句子分割算法,并通过神经机器翻译进行进一步微调的简化操作,其中采用语义分析为基础的分割方式可以有效地解决以往机器翻译的过于保守的问题,经过广泛的自动化和人工评估,该方法在词汇和结构简化方面表现优异。
Oct, 2018
该研究提出了一个新颖的抽象式单文档文本摘要框架,融合了结构、语义和基于神经网络的方法,通过结合机器学习和基于知识的技术实现了一种统一的方法。实验证明了该框架在处理罕见和未登录词方面的显著改进,优于现有的深度学习技术。
Apr, 2024
本文提出了第一次尝试仅依赖于未标记文本语料库进行无监督神经文本简化的核心框架,由共享编码器和一对注意解码器组成,并通过基于鉴别和去噪的损失进行简化知识的获取,并使用从 en-Wikipedia 转储的未标记文本进行训练。我们在公共测试数据上进行的分析(包括定量和定性的人类评估)表明,所提出的模型可以在词汇和句法两个级别上进行文本简化,竞争现有的监督方法。此外,增加几个标记的对也进一步提高了性能。
Oct, 2018
本文提出了一种基于查询的文章摘要生成模型,使用新闻文章摘要数据集训练了指针生成模型,通过与参考摘要的相似度评估生成的摘要,结果表明可以构建类似于抽象式摘要的神经网络模型,使用查询生成有针对性的摘要。
Dec, 2017