AMR-to-Text 生成的在线反向解析
该论文介绍了一种神经网络模型,使用新颖 LSTM 结构直接编码图级别的语义信息,用于 AMR-to-text 生成任务,并在标准数据集上实现了优于现有方法的结果。
May, 2018
本文概述了 AMR-to-Text 的研究现状和方法,并细分为基于规则,Seq-to-Seq,Graph-to-Seq,Transformer 和 PLM 等五类方法。着重介绍了基于神经网络的方法和 AMR-to-Text 的最新进展,包括 AMR 重构和 Decoder 优化等。此外,本文还介绍了 AMR-to-Text 的基准测试和评价方法,并提供了当前技术和未来研究的展望。
Jun, 2022
本文探讨了 AMR-to-text generation 在使用图编码器和树编码器处理 AMR 图时,对于包含多 parent nodes 的 reentrancies 的处理方式对生成文本的影响,并通过比较实验发现,对于 reentrancies 以及长距离依存的处理方式的改进可以提高图编码器的 BLEU 得分,最佳成绩分别在 LDC2015E86(24.40)和 LDC2017T10(24.54)上超过 state of the art。
Mar, 2019
本文提出了一种基于预处理的强化语言模型和基于回环一致性的重新评分相结合的方法,有效地生成表征意义的 AMRs 数据的文本,并在英语 LDC2017T10 数据集上的表现优于以往的所有技术,包括 transformer 架构。
May, 2020
提出了一种新的基于图的序列模型,能够有效地对 AMR 图进行编码,借助不同的顶部和底部节点表示以及节点传递策略,实现了更好的文本生成表现,并在两个 AMR 数据集上达到了最先进的结果。
Sep, 2019
使用数百万个未标记的句子和对 AMR 图的精心预处理,我们提出了一种新颖的训练过程,成功地解决了 AMR 中有限的标记数据和非顺序的图表征对序列到序列模型的限制。我们在 AMR 解析和生成任务上取得了竞争性结果,并得到了丰富的分析和证据表明序列基 AMR 模型对图表征的排序变化具有鲁棒性。
Apr, 2017
本文研究了利用图形自监督训练来提高 PLMs 模型在 AMR 图结构上的结构意识; 它同时介绍了两种图形自编码策略,四个任务以及一个统一的框架来缩小预训练和微调任务之间的差距。实验结果表明了这种方法在 AMR 分析和 AMR-to-text 生成方面的优越性。
Mar, 2022
本文提出了一种新的端到端模型,将 AMR 分析视为对输入序列和增量构建的图表的双重决策序列,并通过多个注意力,推理和组合过程来回答两个关键问题:输入序列的哪一部分需要抽象,以及在图表的哪个位置构建新的概念,实验结果表明,所提出的模型相较于之前的方法,在解决 AMR 分析的准确性方面取得了很大进步,无需任何大规模预训练语言模型(如 Bert),我们的模型就已经超过之前的最新技术水平。
Apr, 2020
这份研究报告介绍了一种使用 AMR-to-text 文本生成方法,将 AMR 图划分为若干个片段,在解决不对称广义旅行商问题的同时,训练最大熵分类器估计其中的旅行成本,并使用 TSP solver 找到优化解决方案。最终,在 SemEval-2016 Task8 数据集上获得了 22.44 的 BLEU 分数。
Sep, 2016