本文介绍了一种新方法,使用 BART 进行表征学习并使用基于优化的元学习方法来提高到低资源域的泛化性能,以使任务导向的语义解析器适应低资源域,这种方法在新收集的多领域任务导向语义解析数据集(TOPv2)方面明显优于所有基线方法。
Oct, 2020
本文提出的基于 seq2seq 的模型结构,可以在零样本或少量样本的情况下,通过对新领域的元数据进行编码,自动实现领域自适应的语义解析,并通过在 Wikidata 上预训练以增强概念感知能力,从而在 TOPv2 和 SNIPS 数据集上优于以前的研究成果。
Jan, 2023
本文提出一种新的基于层次表示的语义分析模型,使用分裂跨度和词汇注入技术,解决动态槽值的问题,取得了 TOP 数据集上最新的最佳结果。
Nov, 2022
本文提出了一种基于层级标注的语义解析方案,能够有效且准确地分析复杂的组合查询,同时发布了包含 44000 个标注查询的数据集,并证明此方案在标准句法分析模型上的表现优于序列到序列的方案。
Oct, 2018
本文介绍了 OpenFSP 框架,它可以以少量简单的标签为基础,实现对话系统中领域分类与语义解析的任务,并获得了在 TopV2 数据集上的显著表现。
May, 2023
本文研究了 BART 和 XLM-R 两种目前最先进的基于 transformers 的任务导向语义解析模型在单语和多语境下的表现,实验证明它们不仅在消歧意图 / 槽方面有困难,而且在生成句法上有效的语义框架方面也遇到了问题,主要原因是在把句子片段抽取到框架中时存在歧义,导致语法无效。不过,该模型同时也为是否正确或不正确的语义框架给出了充足的指标,使得该模型可以轻松部署在生产环境中。
May, 2021
本篇论文介绍了一种基于语言模型的 seq2seq 体系结构,重点介绍了少样本语义解析,并基于非注释数据引入联合训练、有约束的解码、自训练和重新表述这四种技术进行了自动方法来提高语义解析性能。结果表明,该方法在夜间数据集上提供了新的最优结果,并在新的语义解析数据集上提供了非常令人信服的少样本结果。
Apr, 2022
本文提出了一种基于领域本体的框架,通过生成人类可理解的自然语言模板,从而将自然语言句子转化为机器可读的含义表示;并解决了语义解析在大规模领域中由训练数据的获取以及模型推广的复杂度所面临的挑战,该框架在六个领域进行数据训练,证明了其能快速且低成本地进行语义解析。
Dec, 2018
使用检索式建模的思想,为会话助手的多领域任务定向语义解析问题引入了 RetroNLU 方法,通过在序列到序列模型中扩展检索部件,我们的技术在语义解析的不同语言表达复杂度下均比基线更为出色,尤其是在数据稀缺环境下,只需 40%的数据即可达到基线模型准确度的匹配,超越基线方法 1.5%的绝对宏 - F1。
Sep, 2021
本研究探讨了使用预训练去噪序列到序列模型(即 BART)生成神经语义分析的合成数据的可能性,并使用辅助解析器(AP)过滤生成的数据,结果表明这一方法在导航领域的 Facebook TOP 数据集上具有潜力。
Nov, 2020