核心语义先行:面向AMR解析的自顶向下方法
介绍了一种基于转移的AMR解析器,可以按左到右的线性时间解析AMR语义表示的句子。还提出了一个测试套件来评估特定子任务并表明该解析器在处理命名实体和极性方面超过了现有的最佳解析器。
Aug, 2016
本文提出了一种新的端到端模型,将AMR分析视为对输入序列和增量构建的图表的双重决策序列,并通过多个注意力,推理和组合过程来回答两个关键问题:输入序列的哪一部分需要抽象,以及在图表的哪个位置构建新的概念,实验结果表明,所提出的模型相较于之前的方法,在解决 AMR 分析的准确性方面取得了很大进步,无需任何大规模预训练语言模型(如Bert),我们的模型就已经超过之前的最新技术水平。
Apr, 2020
探索将预训练的序列到序列语言模型与结构感知的基于转换的方法相集成,在提高AMR解析效果的同时保持先前基于转换的方法的优质属性,从而使模型更简单、更可靠。
Oct, 2021
本文介绍了一种简单的算法,可将超句级的共指标注转化为统一的图表达方式,避免了信息合并的信息损失和不协调的问题。通过改进Smatch度量方法,使其可以用于比较文档级别的图形,并用它来重新评估最佳发布的文档级AMR解析器,同时提供了一个将AMR解析器和共指消解系统相结合的管道方法,这为未来的研究提供了一个强大的基准。
Dec, 2021
本文研究了利用图形自监督训练来提高PLMs模型在AMR图结构上的结构意识; 它同时介绍了两种图形自编码策略,四个任务以及一个统一的框架来缩小预训练和微调任务之间的差距。实验结果表明了这种方法在AMR分析和AMR-to-text生成方面的优越性。
Mar, 2022
本文提出了一种基于广度优先策略的AMR语义图自动解析的新架构,通过引入一个聚焦父节点顶点来引导解析,并在句子和图形编码器方面进行了一些改进,从而在AMR 1.0和2.0数据集上获得了更好的性能。
Nov, 2022
本文提出了LeakDistill,通过使用结构适配器显式地将图形信息纳入到学习表示中,使用自知识蒸馏技术,无需使用额外数据就可以获得最先进的AMR解析性能。
Jun, 2023
我们介绍了一种新的AMR解析目标形式和一种新型模型CHAP,在Transformer解码器中引入因果层次注意力和指针机制,实现了结构的整合;实验证明,我们的模型在无新增数据的情况下在五个基准测试中有四个表现优于基准模型。
Oct, 2023
我们提出了Granular AMR Parsing Evaluation Suite (GrAPES),这是一个用于Abstract Meaning Representation (AMR)解析的挑战集合,伴随着相应的评估指标。我们的评估套件测试了AMR解析器对实际、技术和语言学上感兴趣的一系列现象。
Dec, 2023