指导微调预训练语言模型的AMR解析
该研究介绍了两种扩展AMR smatch评分脚本的方法,即使用C6.0基于规则的分类器生成可读的错误频率报告以及结合集成方法选择同一句子的最佳AMR图。其中,字符级神经翻译AMR解析器在AMR解析任务中展现了意外的表现,比其它模型获得更高的F1得分,最终实现了对SemEval-2016标准集的62%和LDC2015E86测试集的67%的匹配度。
Apr, 2016
使用数百万个未标记的句子和对 AMR 图的精心预处理,我们提出了一种新颖的训练过程,成功地解决了 AMR 中有限的标记数据和非顺序的图表征对序列到序列模型的限制。我们在 AMR 解析和生成任务上取得了竞争性结果,并得到了丰富的分析和证据表明序列基 AMR 模型对图表征的排序变化具有鲁棒性。
Apr, 2017
我们使用字符级翻译的方法对一大语料库中注释有抽象意义表示的句子进行神经语义解析的评估。通过一些简单的预处理和后处理,我们使用序列到序列模型得到了一个基线准确率为53.1。研究了五种不同的方法来改善这个基线结果,结合这五种技术的结果使获得了一项AMR解析的最新进展状态的成果,F分数为71.0。
May, 2017
本文论述了使用Seq2Seq预训练方法和多任务细调方法,建立单一和联合预训练模型,并取得最先进的性能,以提高抽象意义表示-AMR-解析的数据集规模限制问题。
Oct, 2020
本文探讨了训练模型可用于提高AMR解析性能的不同方式,包括生成合成文本和AMR注释以及动作预测的改进。我们证明了这些技术在没有额外的人工注释的情况下提高了一个已经高性能的解析器,并在AMR 1.0和AMR 2.0上取得了最先进的结果。
Oct, 2020
该研究旨在通过跨语言的 AMR 解析,使用单个模型来捕捉各种语言中句子的核心语义内容,发现用翻译加解析(T+P)的简单方法在几种语言上的表现比最新的全球最佳系统表现更好。
Jun, 2021
通过知识蒸馏的方法,结合精确的输出和大量预训练,我们在一个严格的多语言设置中获得了一个 AMR 解析器,其性能超过了先前发表的所有结果,并在英语上达到了与最新的最先进的英语解析器相当的性能。
Sep, 2021
探索将预训练的序列到序列语言模型与结构感知的基于转换的方法相集成,在提高AMR解析效果的同时保持先前基于转换的方法的优质属性,从而使模型更简单、更可靠。
Oct, 2021
通过引入更好的语义或形式相关的辅助任务,我们可以更好地提升抽象意义表示(AMR)解析,包括语义角色标注(SRL)和依存解析(DP)。同时,中间任务学习是一种比多任务学习更好的方式,可以更好地提高AMR解析的性能。我们的实验结果显示,我们的方法在不同的基准测试上取得了新的最佳性能。
Apr, 2022
通过直接学习node-to-word alignments,提出了一个基于神经网络的AMR分析算法,并通过分析aligner有关的重要操作序列的分布集成于解析器的训练过程中,从而提高了对AMR3.0的性能。
May, 2022