利用双语信息更好地进行跨语言 AMR 解析
该研究旨在通过跨语言的 AMR 解析,使用单个模型来捕捉各种语言中句子的核心语义内容,发现用翻译加解析(T+P)的简单方法在几种语言上的表现比最新的全球最佳系统表现更好。
Jun, 2021
本文提出了一种基于注释映射的方法,通过利用一个源语言和一个源语言以及目标语言的平行语料库中的注释,针对英语作为源语言的情况,在意大利语、西班牙语、德语和中文等目标语言上训练分析器。此外,提出了一种利用英语金标注释的评估方法,这种方法不需要访问目标语言的金标注释,这是通过反转投影流程实现的。
Apr, 2017
本研究通过对五个领域的五种具有代表性的抽象意义表示解析器进行广泛评估和分析,旨在解决抽象意义表示解析系统的领域依赖性问题,并通过研究两种方法减少文本和 AMR 特征的领域分布差异,最终实验证明我们的方法的优越性。
Oct, 2022
介绍了一种基于转移的 AMR 解析器,可以按左到右的线性时间解析 AMR 语义表示的句子。还提出了一个测试套件来评估特定子任务并表明该解析器在处理命名实体和极性方面超过了现有的最佳解析器。
Aug, 2016
本文介绍了一个使用变分自动编码框架和离散对齐的连续轻松方法的神经解析器,其将模型概念、关系和对齐作为联合概率模型的潜在变量用于抽象语义表示 (AMR) 的预测,相较于传统方法,该模型表现优异、更为准确和可行。
May, 2018
本论文关注结构化数据的文本生成问题,并着眼于通过跨语言嵌入、预训练和多语言模型生成 21 种不同语言的 AMR 到文本模型。通过分析人类评估,我们发现我们的多语言模型能够准确捕捉形态和语序,并被母语人士视为流畅。
Nov, 2020
本文探讨了训练模型可用于提高 AMR 解析性能的不同方式,包括生成合成文本和 AMR 注释以及动作预测的改进。我们证明了这些技术在没有额外的人工注释的情况下提高了一个已经高性能的解析器,并在 AMR 1.0 和 AMR 2.0 上取得了最先进的结果。
Oct, 2020
本研究提出了一种新方法,使用抽象意义表示(AMR)来改善现有的多语言句子嵌入。研究表明,使用 AMR 可以提高多语言句子嵌入在语义相似性和转移任务上的性能。
Oct, 2022
使用数百万个未标记的句子和对 AMR 图的精心预处理,我们提出了一种新颖的训练过程,成功地解决了 AMR 中有限的标记数据和非顺序的图表征对序列到序列模型的限制。我们在 AMR 解析和生成任务上取得了竞争性结果,并得到了丰富的分析和证据表明序列基 AMR 模型对图表征的排序变化具有鲁棒性。
Apr, 2017
本研究探讨了基于 Transformer 模型的句法分析器的交叉注意力机制及其对句子结构与语义间的对齐能力,提出了一种有效的交叉关注权重的监督和引导方法并通过实验验证其效果。
Jun, 2022