严格的广度优先 AMR 解析
本文介绍了一种新的文本解析方法(GSP),该方法采用从上到下的递增式方法构建解析图,并且遵循首先抓住主要思想,然后深入细节的直觉。这种方法优秀地表现在捕捉句子的核心语义上,达到了当前最高的性能水平。
Sep, 2019
本文介绍了一个使用变分自动编码框架和离散对齐的连续轻松方法的神经解析器,其将模型概念、关系和对齐作为联合概率模型的潜在变量用于抽象语义表示 (AMR) 的预测,相较于传统方法,该模型表现优异、更为准确和可行。
May, 2018
本文提出了一种新的端到端模型,将 AMR 分析视为对输入序列和增量构建的图表的双重决策序列,并通过多个注意力,推理和组合过程来回答两个关键问题:输入序列的哪一部分需要抽象,以及在图表的哪个位置构建新的概念,实验结果表明,所提出的模型相较于之前的方法,在解决 AMR 分析的准确性方面取得了很大进步,无需任何大规模预训练语言模型(如 Bert),我们的模型就已经超过之前的最新技术水平。
Apr, 2020
我们提出了一种基于关注机制的模型,将 AMR 解析视为序列到图的转换,与大多数依赖于预训练对齐程序、外部语义资源或数据增强的 AMR 解析器不同,我们的提议的解析器是免费的,它可以有效地训练用于有限数量的标记 AMR 数据。我们的实验结果优于以前报告的所有 SMATCH 得分,无论是在 AMR 2.0(LDC2017T10 上的 76.3%F1)还是 AMR 1.0(LDC2014T12 上的 70.2%F1)上。
May, 2019
使用数百万个未标记的句子和对 AMR 图的精心预处理,我们提出了一种新颖的训练过程,成功地解决了 AMR 中有限的标记数据和非顺序的图表征对序列到序列模型的限制。我们在 AMR 解析和生成任务上取得了竞争性结果,并得到了丰富的分析和证据表明序列基 AMR 模型对图表征的排序变化具有鲁棒性。
Apr, 2017
该论文介绍了一种跨语言的 AMR 解析器,该解析器通过引入双语输入和辅助任务来提高 AMR 的预测准确性,其在 Smatch F1 得分上超过了现有的最先进解析器。
Jun, 2021
提出一种新的逆序图线性化(RGL)增强框架来解决序列到序列方法在解码过程中面临的结构损失积累问题,并通过两次传递的自蒸馏机制将逆序线性化引入原始 AMR 解析器,提高模型性能并在 AMR 2.0 和 AMR 3.0 数据集上取得了显著优势。
Oct, 2023
本文研究了利用图形自监督训练来提高 PLMs 模型在 AMR 图结构上的结构意识; 它同时介绍了两种图形自编码策略,四个任务以及一个统一的框架来缩小预训练和微调任务之间的差距。实验结果表明了这种方法在 AMR 分析和 AMR-to-text 生成方面的优越性。
Mar, 2022
将从 “抽象意义表达”(AMR)生成的过程分解成两个步骤,即首先生成句法结构,然后生成表面形式,从而实现了最先进的单模型性能,同时生成了与原 AMR 图形意义相同的句法释义。
Apr, 2018
探索将预训练的序列到序列语言模型与结构感知的基于转换的方法相集成,在提高 AMR 解析效果的同时保持先前基于转换的方法的优质属性,从而使模型更简单、更可靠。
Oct, 2021