无零样本语义解析的结构与词汇解耦
本文提出一种多任务编码 - 解码模型,通过多语言领域内语料库和英文 - 逻辑形式对标数据,在没有平行语料的情况下完成跨语言的语义解析,模型加强了语言无关编码,显著优于传统基于翻译的算法,有时能与有监督模型的上线媲美。
Apr, 2021
本文提出的基于 seq2seq 的模型结构,可以在零样本或少量样本的情况下,通过对新领域的元数据进行编码,自动实现领域自适应的语义解析,并通过在 Wikidata 上预训练以增强概念感知能力,从而在 TOPv2 和 SNIPS 数据集上优于以前的研究成果。
Jan, 2023
本文提供了一个新的数据集,旨在解决零样本语义分析和训练算法,并通过增加特征和逻辑形式候选筛选逻辑,从而支持零样本适应。实验结果表明,该算法在多种零样本适应环境中展现出显著的性能提升。
Nov, 2019
本文提出了一种基于深度学习的方法,利用多任务学习中的槽位描述来快速启动新领域的语义解析模型,解决了对话系统领域扩展问题,同时消除了手动注释数据或显式模式对齐的需求,并在多个领域的实验中展现出显著的槽位填充性能优化。
Jul, 2017
本文提出了一种语义解析器,通过适应已见过的语句的逻辑形式而不是从头开始生成逻辑形式来学习解析未知语句的一般策略,同时提出了一种数据生成策略来构建不同领域的语句 - 逻辑形式对,结果显示相较于基准测试,单次解析的改善高达 68.8%。
Oct, 2019
通过在不同领域的语言中利用结构规律,并在多个知识库中共享信息来训练语义解析器的序列到序列模型,同时在解码时提供域的编码,可以显著提高解析准确性,从而实现了针对 Overnight 数据集(包含八个领域)的最新性能,将模型参数的数量降低了 7 倍。
Feb, 2017
本研究提出一种基于 Zero-Shot Adaptive Transfer 方法的领域自适应对话代理模型,通过利用槽位描述信息实现可重用概念在领域之间的迁移,并避免了显式概念对齐的训练复杂度,实验结果表明此模型在多达 10 个领域的数据集上性能显著优于之前的最优系统,特别在低数据情况下表现更出色。
Aug, 2018
本文介绍了 OpenFSP 框架,它可以以少量简单的标签为基础,实现对话系统中领域分类与语义解析的任务,并获得了在 TopV2 数据集上的显著表现。
May, 2023