本文针对语义解析的性能进行改进,使用多任务学习方法,将 UCCA 解析作为测试案例,辅助任务包括 AMR 解析、SDP 解析和 Universal Dependencies 解析。实验表明,多任务学习显著提高了 UCCA 解析的性能。
May, 2018
我们提出了一种基于关注机制的模型,将 AMR 解析视为序列到图的转换,与大多数依赖于预训练对齐程序、外部语义资源或数据增强的 AMR 解析器不同,我们的提议的解析器是免费的,它可以有效地训练用于有限数量的标记 AMR 数据。我们的实验结果优于以前报告的所有 SMATCH 得分,无论是在 AMR 2.0(LDC2017T10 上的 76.3%F1)还是 AMR 1.0(LDC2014T12 上的 70.2%F1)上。
May, 2019
介绍一种用于自然语言处理的跨识别模型,能够将自然语言转化为通用分解语义表现形式(UDS)的图结构,并将其注释为分解语义属性分数,同时实现了属性预测。通过分析属性预测错误,发现模型捕捉到属性组之间的自然关系。
Oct, 2019
本研究探讨了基于 Transformer 模型的句法分析器的交叉注意力机制及其对句子结构与语义间的对齐能力,提出了一种有效的交叉关注权重的监督和引导方法并通过实验验证其效果。
Jun, 2022
本文提出了一种基于领域本体的框架,通过生成人类可理解的自然语言模板,从而将自然语言句子转化为机器可读的含义表示;并解决了语义解析在大规模领域中由训练数据的获取以及模型推广的复杂度所面临的挑战,该框架在六个领域进行数据训练,证明了其能快速且低成本地进行语义解析。
Dec, 2018
本文提出了一种基于多任务框架和序列到序列模型的语义解析方法,旨在解决语料数据不足限制,较少标注数据任务可以通过从大量标注数据任务中传递学习的方式得到提升,实验结果在自己的数据集中获得了 1.0% 到 4.4% 的准确度提升,在 ATIS 语义解析任务中,准确度提升了 2.5% 到 7.0%。
Jun, 2017
本研究提出了一种基于注意力增强的编码器 - 解码器模型的通用方法,旨在消除传统方法所需的高质量词汇表、手工构建的模板和语言特征等问题,并可在不同领域和意义表示之间进行易于调整的转化,实验结果表明,该方法在不使用手工特征的情况下表现出了较强的竞争力。
Jan, 2016
基于 transformer-based 模型的多任务学习在框架语义解析中取得优越性能,并且在 PropBank SRL 解析上也表现优于现有最佳系统。
Oct, 2020
我们提出了一种新颖的半监督方法,应用于序列转换和语义分析。该方法包含基于生成模型的无监督成分,在该模型中,潜在的句子生成不成对的逻辑形式,我们将此方法应用于许多语义解析任务,重点关注训练数据标记不足的领域,并使用合成逻辑形式扩充这些数据集。
Sep, 2016
该研究提出了一种基于结构的神经网络架构,将语义解析过程分解为两个阶段,在四个不同领域和含义表达的数据集上进行实验,结果表明该方法在性能方面取得了较好的效果。