双向学习的语义解析
通过引入一个新的 NLU 双重任务 —— 语义到句子生成 (SSG),并提出一种新的半监督 NLU 框架,其中包括对应的双重模型,以解决之前半监督学习面临的标注样本稀缺问题。该框架通过主任务与对偶任务之间的闭环,使得 NLU 模型可以充分利用数据(标记和无标记),并在每次迭代中逐步提高 NLU 和 SSG 模型的性能,在 ATIS 和 SNIPS 两个公共数据集上的实验结果表明,该方法明显优于基线,而且在监督设置下也可以达到最先进水平。
Apr, 2020
该研究提出了一种两阶段的语义解析框架,第一阶段利用无监督的语义模型将未标记的自然语言转化为规范化语句,第二阶段使用自然语言解析器解析输出结果得到目标逻辑形式,该训练过程被分成了预训练和循环学习两个阶段,通过三项定制的自监督任务激活无监督的语义模型,实验结果表明该框架是有效的且与监督式训练相兼容。
May, 2020
本文介绍了一个基于转移学习的可执行语义分析框架,并在不同领域的数据集上进行了实验,表明可执行语义分析可以统一自然语言处理的不同领域,例如问答 (Q&A) 和口语理解 (SLU).
Mar, 2019
本文探讨了如何通过在不同语言中打标注的数据来学习语义解析器的分布式逻辑形式表示,以提高特定语言下单语义解析器的性能,并在标准的多语言 GeoQuery 数据集上得到了改进的结果。
Jun, 2018
本文介绍了一种神经语义解析器,可以将自然语言表达式映射到逻辑形式,以在特定任务环境中执行,如知识库或数据库,生成响应。解析器使用基于转换的方法生成具有树形结构的逻辑形式,结合由逻辑语言定义的通用树生成算法和领域一般性操作。解析器的生成过程由结构化循环神经网络建模,提供句子上下文和生成历史的丰富编码,以进行预测。为了解决自然语言和逻辑形式标记之间的不匹配,探讨了各种注意机制。最后,我们考虑了神经语义解析器的不同训练设置,包括全监督训练、弱监督训练和远程监督训练。对各种数据集的实验表明了我们解析器的有效性。
Nov, 2017
本文介绍了一种联合学习框架,旨在通过一种新颖的双重信息最大化方法对两个任务 (自然语言生成与语义分析) 进行正则化学习,进一步将其扩展到半监督学习,并在对话管理和代码生成 (以及总结) 三个数据集上进行了实验,结果表明 DIM 可以提高两个任务的学习性能。
Jun, 2019
本篇论文介绍了一种基于语言模型的 seq2seq 体系结构,重点介绍了少样本语义解析,并基于非注释数据引入联合训练、有约束的解码、自训练和重新表述这四种技术进行了自动方法来提高语义解析性能。结果表明,该方法在夜间数据集上提供了新的最优结果,并在新的语义解析数据集上提供了非常令人信服的少样本结果。
Apr, 2022
本文介绍了一种新颖的深度学习架构,通过将两个语言语义的神经模型相结合,提供了一个语义分析系统,无需解析即可从自然语言语句和问题中生成本体库特定的查询,使其特别适用于语法错误或句法非典型的文本,例如 Twitter,也允许开发受资源限制的语言的语义解析器。
Apr, 2014