本文提出了一种基于自动语音识别系统和预训练语言模型的语义解析系统,用于解决在 ICASSP 信号处理大挑战中为语音理解大挑战而提出的质量跟踪 (Track 1) 任务中的问题,并且在这个任务中获得了 80.8 的精确匹配准确率,从而获得了第一名。
May, 2023
我们的研究聚焦于词形屈折在词汇外条件下的问题,通过开发三个系统并测试在词汇外数据集上的性能,我们发现逆行模型在现实情境下的词汇外数据上胜过了所有神经模型,并且由我们的 seq2seq 模型在 SIGMORPHON 2022 共享任务数据的大数据条件下达到了最先进的结果。
Apr, 2024
本文介绍了一种新颖的深度学习架构,通过将两个语言语义的神经模型相结合,提供了一个语义分析系统,无需解析即可从自然语言语句和问题中生成本体库特定的查询,使其特别适用于语法错误或句法非典型的文本,例如 Twitter,也允许开发受资源限制的语言的语义解析器。
Apr, 2014
本文提出了两种解决 out-of-vocabulary 问题的策略和一个语义模型,以解决传统深度神经网络和基于规则的方法在自然语言理解上所面临的挑战。
Apr, 2023
本文介绍了一种基于多层数据扩增的 OOV 坚韧性槽填充模型,通过从词和槽的角度解决 OOV 问题。实验表明,该模型比现有模型和之前的最佳模型在 OOV 词和槽方面表现更出色。
Feb, 2023
本研究提出了一种基于帧语义的解析器,可以标记出 FrameNet 谓词的语义参数,通过一种强调回忆的基于 RNNs 的扩展,该基本系统在无需调用句法解析器的情况下实现了竞争性能;同时,作者还介绍了一种仅在训练时使用来自 Penn Treebank 的短语句法注释的方法,该方法旨在解决传统句法流水线的高成本问题,并实现了最先进的性能。
Jun, 2017
基于 transformer-based 模型的多任务学习在框架语义解析中取得优越性能,并且在 PropBank SRL 解析上也表现优于现有最佳系统。
Oct, 2020
本文发布了 Spoken Task-Oriented semantic Parsing (STOP) 数据集,这是目前公开可用的最大、最复杂的 SLU 数据集,评估了在有限标注数据情况下改进 SLU 的基于端到端 SLU 系统的低资源领域适应性的性能,并表明端到端 SLU 模型的性能不及级联模型。
Jun, 2022
本文探究在语义解析中复合泛化的问题,研究了多种模型并提出多种扩展,其中包括使用上下文表示、指导解码器、训练解码器等等,结果发现这些因素有助于促进复合泛化。
本研究针对芬兰文超领域分析,提出了一个包含五个不同数据源的 UD Finnish-OOD 超领域树库和大量的超领域分析评估。其中新的 Finnish-OOD 树库比之前的树库更具挑战性,为超领域应用提供了有价值的信息。
Apr, 2022