使用堆叠 LSTM 进行 AMR 解析
我们提出了一种基于关注机制的模型,将 AMR 解析视为序列到图的转换,与大多数依赖于预训练对齐程序、外部语义资源或数据增强的 AMR 解析器不同,我们的提议的解析器是免费的,它可以有效地训练用于有限数量的标记 AMR 数据。我们的实验结果优于以前报告的所有 SMATCH 得分,无论是在 AMR 2.0(LDC2017T10 上的 76.3%F1)还是 AMR 1.0(LDC2014T12 上的 70.2%F1)上。
May, 2019
本文提出了一种新的端到端模型,将 AMR 分析视为对输入序列和增量构建的图表的双重决策序列,并通过多个注意力,推理和组合过程来回答两个关键问题:输入序列的哪一部分需要抽象,以及在图表的哪个位置构建新的概念,实验结果表明,所提出的模型相较于之前的方法,在解决 AMR 分析的准确性方面取得了很大进步,无需任何大规模预训练语言模型(如 Bert),我们的模型就已经超过之前的最新技术水平。
Apr, 2020
使用数百万个未标记的句子和对 AMR 图的精心预处理,我们提出了一种新颖的训练过程,成功地解决了 AMR 中有限的标记数据和非顺序的图表征对序列到序列模型的限制。我们在 AMR 解析和生成任务上取得了竞争性结果,并得到了丰富的分析和证据表明序列基 AMR 模型对图表征的排序变化具有鲁棒性。
Apr, 2017
本文探讨了训练模型可用于提高 AMR 解析性能的不同方式,包括生成合成文本和 AMR 注释以及动作预测的改进。我们证明了这些技术在没有额外的人工注释的情况下提高了一个已经高性能的解析器,并在 AMR 1.0 和 AMR 2.0 上取得了最先进的结果。
Oct, 2020
本文探讨了使用序列到序列 Transformer 模型设计全局或局部状态模拟器改善基于转移的语法分析系统表现,并发现 Transformer 的交叉注意力机制的修改对于依存关系和抽象意义表征(AMR)分析任务的效果特别明显,尤其是在较小的模型或有限的训练数据下。
Oct, 2020
探索将预训练的序列到序列语言模型与结构感知的基于转换的方法相集成,在提高 AMR 解析效果的同时保持先前基于转换的方法的优质属性,从而使模型更简单、更可靠。
Oct, 2021
本文介绍了一种针对形态丰富的语言的连续状态依赖解析扩展方法,使用 LSTM 循环神经网络来学习表示解析器状态,将基于查找的词表示替换为由单词的正字表示构成的表示,使用字符编码来提高解析模型的表现。
Aug, 2015
我们提出了一种语义解析器,可以将字符串解析为 AMR 图的组成结构的树形表示,利用语言学原则约束标准神经技术进行超标记和依存树解析。我们提出了两种近似解码算法,实现了最先进的准确度并优于强基线。
May, 2018
本文介绍了一个使用变分自动编码框架和离散对齐的连续轻松方法的神经解析器,其将模型概念、关系和对齐作为联合概率模型的潜在变量用于抽象语义表示 (AMR) 的预测,相较于传统方法,该模型表现优异、更为准确和可行。
May, 2018
本文提出了一种基于 Transformer 架构的、利用硬注意与目标端点机制相结合的过渡式 AMR 解析器,该解析器通过显式地对齐目标节点与源句子标记而提高了表现。
Apr, 2021