基于深度语义学习的非监督句子简化
我们提出了一种新的迭代式基于编辑的无监督句子简化方法,其模型通过包括流畅性、简洁性和意义保持在内的评分函数进行指导,并在复杂句子上迭代执行单词和短语级别的编辑。与之前的方法相比,我们的模型不需要并行的训练集,但更可控和可解释。对 Newsela 和 WikiLarge 数据集的实验表明,我们的方法几乎与最先进的监督方法一样有效。
Jun, 2020
本论文提出了一种基于自动语义分析器的简单有效的句子分割算法,并通过神经机器翻译进行进一步微调的简化操作,其中采用语义分析为基础的分割方式可以有效地解决以往机器翻译的过于保守的问题,经过广泛的自动化和人工评估,该方法在词汇和结构简化方面表现优异。
Oct, 2018
该研究提出了一种递归分割和重述复杂英语句子的方法,生成简化句子的新语义层级结构,可用于机器翻译或信息提取等人工智能任务,手动和自动评估都表明该方法在结构文本简化方面表现优于现有技术,并用于近似 346% 精度和 52% 召回率地改良现有句子提取系统的性能。
Jun, 2019
该论文介绍了一种基于自然语言解析结构和句子嵌入的简化系统,其能进行高效修改以简化句子,同时维持原始句子的语义和流畅度,达到了相当不错的简化效果,并证明其在多语言领域也具备扩展性。
Jun, 2022
本文提出了第一次尝试仅依赖于未标记文本语料库进行无监督神经文本简化的核心框架,由共享编码器和一对注意解码器组成,并通过基于鉴别和去噪的损失进行简化知识的获取,并使用从 en-Wikipedia 转储的未标记文本进行训练。我们在公共测试数据上进行的分析(包括定量和定性的人类评估)表明,所提出的模型可以在词汇和句法两个级别上进行文本简化,竞争现有的监督方法。此外,增加几个标记的对也进一步提高了性能。
Oct, 2018
该研究提出了一种两阶段的语义解析框架,第一阶段利用无监督的语义模型将未标记的自然语言转化为规范化语句,第二阶段使用自然语言解析器解析输出结果得到目标逻辑形式,该训练过程被分成了预训练和循环学习两个阶段,通过三项定制的自监督任务激活无监督的语义模型,实验结果表明该框架是有效的且与监督式训练相兼容。
May, 2020
本文提出使用基于深度结构语义模型(DSSM)的神经网络模型,并借助大量未经监督学习的文本来学习常识知识,以解决常识推理任务(Winograd Schema challenges)和代词消岐(Pronoun Disambiguation),并证明其在句子上下文信息和代词和名词之间的引用信息捕捉方面的有效性和显著性改进。
Apr, 2019
在语义上意识到文本中的句子结构和上下文联系,通过将复杂句子进行拆分和重新表述,生成有语义层次的简化句子,以提高自然语言处理应用的预测质量。
Aug, 2023
通过语义图平滑,在经验上探索一种无监督学习更判别句子表示方法的方法。利用预训练模型得到的句子嵌入来提高文本聚类和分类任务的结果。经验证,我们的方法在八个基准测试中表现出一致的改进,展示了语义图平滑在改进句子嵌入用于监督和无监督的文档分类任务中的潜力。
Feb, 2024
通过结合单词级和句子级的简化方法,本研究提出了一个两步简化框架,并利用约束神经生成模型的方法对简化后的单词进行句子简化,取得了比各种基线模型更好的性能表现。
Apr, 2017