具有因果分层注意力和指针的AMR解析
使用数百万个未标记的句子和对 AMR 图的精心预处理,我们提出了一种新颖的训练过程,成功地解决了 AMR 中有限的标记数据和非顺序的图表征对序列到序列模型的限制。我们在 AMR 解析和生成任务上取得了竞争性结果,并得到了丰富的分析和证据表明序列基 AMR 模型对图表征的排序变化具有鲁棒性。
Apr, 2017
我们提出了一种基于关注机制的模型,将AMR解析视为序列到图的转换,与大多数依赖于预训练对齐程序、外部语义资源或数据增强的AMR解析器不同,我们的提议的解析器是免费的,它可以有效地训练用于有限数量的标记AMR数据。我们的实验结果优于以前报告的所有SMATCH得分,无论是在AMR 2.0(LDC2017T10上的76.3%F1)还是AMR 1.0(LDC2014T12上的70.2%F1)上。
May, 2019
我们提出了一种名为SEMBLEU的强健指标来评估AMR解析准确性,并解决了搜索错误问题,该指标在局部和非局部的对应方面都得到了考虑,在句子和语料库级别的初步实验表明,SEMBLEU与人类判断具有更高的一致性。
May, 2019
本文介绍了一种新的文本解析方法(GSP),该方法采用从上到下的递增式方法构建解析图,并且遵循首先抓住主要思想,然后深入细节的直觉。这种方法优秀地表现在捕捉句子的核心语义上,达到了当前最高的性能水平。
Sep, 2019
本文提出了一种新的端到端模型,将AMR分析视为对输入序列和增量构建的图表的双重决策序列,并通过多个注意力,推理和组合过程来回答两个关键问题:输入序列的哪一部分需要抽象,以及在图表的哪个位置构建新的概念,实验结果表明,所提出的模型相较于之前的方法,在解决 AMR 分析的准确性方面取得了很大进步,无需任何大规模预训练语言模型(如Bert),我们的模型就已经超过之前的最新技术水平。
Apr, 2020
本文提出了一种基于Transformer架构的、利用硬注意与目标端点机制相结合的过渡式AMR解析器,该解析器通过显式地对齐目标节点与源句子标记而提高了表现。
Apr, 2021
探索将预训练的序列到序列语言模型与结构感知的基于转换的方法相集成,在提高AMR解析效果的同时保持先前基于转换的方法的优质属性,从而使模型更简单、更可靠。
Oct, 2021
本文介绍了一种简单的算法,可将超句级的共指标注转化为统一的图表达方式,避免了信息合并的信息损失和不协调的问题。通过改进Smatch度量方法,使其可以用于比较文档级别的图形,并用它来重新评估最佳发布的文档级AMR解析器,同时提供了一个将AMR解析器和共指消解系统相结合的管道方法,这为未来的研究提供了一个强大的基准。
Dec, 2021
本文研究了利用图形自监督训练来提高PLMs模型在AMR图结构上的结构意识; 它同时介绍了两种图形自编码策略,四个任务以及一个统一的框架来缩小预训练和微调任务之间的差距。实验结果表明了这种方法在AMR分析和AMR-to-text生成方面的优越性。
Mar, 2022
本文提出了LeakDistill,通过使用结构适配器显式地将图形信息纳入到学习表示中,使用自知识蒸馏技术,无需使用额外数据就可以获得最先进的AMR解析性能。
Jun, 2023