由基于转移的解析器调整的 AMR 对齐器
通过直接学习 node-to-word alignments,提出了一个基于神经网络的 AMR 分析算法,并通过分析 aligner 有关的重要操作序列的分布集成于解析器的训练过程中,从而提高了对 AMR3.0 的性能。
May, 2022
我们提出了一种基于关注机制的模型,将 AMR 解析视为序列到图的转换,与大多数依赖于预训练对齐程序、外部语义资源或数据增强的 AMR 解析器不同,我们的提议的解析器是免费的,它可以有效地训练用于有限数量的标记 AMR 数据。我们的实验结果优于以前报告的所有 SMATCH 得分,无论是在 AMR 2.0(LDC2017T10 上的 76.3%F1)还是 AMR 1.0(LDC2014T12 上的 70.2%F1)上。
May, 2019
探索将预训练的序列到序列语言模型与结构感知的基于转换的方法相集成,在提高 AMR 解析效果的同时保持先前基于转换的方法的优质属性,从而使模型更简单、更可靠。
Oct, 2021
本文提出了一种基于 Transformer 架构的、利用硬注意与目标端点机制相结合的过渡式 AMR 解析器,该解析器通过显式地对齐目标节点与源句子标记而提高了表现。
Apr, 2021
本研究提出了一种贪心的从左到右的非投射转移句法分析器,旨在处理 AMR 图中的循环和重新进入,能够原生地处理重新进入和任意循环,模型在 LDC2015E86 语料库上获得 64%的 Smatch 的结果,并在重新进入的边缘上表现良好。
May, 2018
通过 Policy Learning 和奖励样本图的 Smatch 得分来丰富 Stack-LSTM 转移式 AMR 解析器的训练,在 AMR-to-text 的对齐和加入注意力机制的基础上补充了预处理的概念识别、命名实体和上下文嵌入,从而实现了与最优 published results 相媲美的高竞争性能。我们进行了深入的研究来研究解析器的每个新组件。
May, 2019
本文提出了一种新的端到端模型,将 AMR 分析视为对输入序列和增量构建的图表的双重决策序列,并通过多个注意力,推理和组合过程来回答两个关键问题:输入序列的哪一部分需要抽象,以及在图表的哪个位置构建新的概念,实验结果表明,所提出的模型相较于之前的方法,在解决 AMR 分析的准确性方面取得了很大进步,无需任何大规模预训练语言模型(如 Bert),我们的模型就已经超过之前的最新技术水平。
Apr, 2020
本文提出了一个利用无监督学习和启发式方法对抽象意义表示(AMR)图组件与英语句子跨度进行对齐的算法,避免了单独的句法分析,提高了节点和边缘的覆盖率和准确性,并发布了 LEAMR 数据集和对齐器供 AMR 解析、生成和评估研究使用。
Jun, 2021
本文提出了一个基于转换的 AMR 解析器,该解析器可以直接从纯文本中生成 AMR 解析结果。使用 Stack-LSTMs 表示解析器状态并确保贪婪的决策,研究表明该解析器在英语上取得了非常有竞争力的成绩,仅使用 AMR 的训练数据,加入其他信息(如 POS 标签和依赖树)可以进一步提高结果。
Jul, 2017
该研究介绍了两种扩展 AMR smatch 评分脚本的方法,即使用 C6.0 基于规则的分类器生成可读的错误频率报告以及结合集成方法选择同一句子的最佳 AMR 图。其中,字符级神经翻译 AMR 解析器在 AMR 解析任务中展现了意外的表现,比其它模型获得更高的 F1 得分,最终实现了对 SemEval-2016 标准集的 62% 和 LDC2015E86 测试集的 67% 的匹配度。
Apr, 2016