本文为研究使用多任务学习 (MTL) 框架统一不同的含义数据集和训练单一模型,使用了五个数据集 (Geoquery,NLMaps,TOP,Overnight,AMR) 进行实验,我们发现在不增加总参数数量的情况下,全网络共享的 MTL 架构的解析精度与单任务的基线相当或更好,同时也提供了更好的组合推广性,我们还提出了一种可与广泛使用的比例抽样策略相比较的竞争性选择任务抽样方法。
Jun, 2021
为了解决印度语言语义分析数据集缺乏的问题,提出了适用于 11 种印度语言的 Inter-bilingual Seq2seq 语义分析数据集 IE-SEMPARSE,并在不同的训练测试策略下评估了现有的多语言 seq2seq 模型。
Apr, 2023
本文探讨了如何通过在不同语言中打标注的数据来学习语义解析器的分布式逻辑形式表示,以提高特定语言下单语义解析器的性能,并在标准的多语言 GeoQuery 数据集上得到了改进的结果。
Jun, 2018
使用多语言模型进行依赖解析,通过使用多语言单词聚类和嵌入,令解析器能够在多种语言中进行有效解析,同时基于语言普遍规律和类型相似性实现跨语言推断,从而使其能够更有效地从有限的注释中进行学习。
Feb, 2016
本文提出一种多任务编码 - 解码模型,通过多语言领域内语料库和英文 - 逻辑形式对标数据,在没有平行语料的情况下完成跨语言的语义解析,模型加强了语言无关编码,显著优于传统基于翻译的算法,有时能与有监督模型的上线媲美。
Apr, 2021
通过机器翻译自动翻译对话数据集并使用新的上下文语义解析模型,该方法在多个数据集上提高了准确性并创建了高准确度的多语言对话数据集。
Nov, 2021
我们探究了一种新的方法,即将来自一对语言的资源结合起来构建一种多语言语义角色标注器,在多项语言中取得了比单语言基线更好的 SRL 性能,从分析多语言模型可以看出它在低资源环境下具有优势。
May, 2018
本文提出了一种基于多任务框架和序列到序列模型的语义解析方法,旨在解决语料数据不足限制,较少标注数据任务可以通过从大量标注数据任务中传递学习的方式得到提升,实验结果在自己的数据集中获得了 1.0% 到 4.4% 的准确度提升,在 ATIS 语义解析任务中,准确度提升了 2.5% 到 7.0%。
Jun, 2017
使用大型语言模型通过少量提示将英文数据集转化为多种语言,以实现多语言语义解析,并在两个公共数据集上与传统的翻译 - 训练方法进行比较,表明使用 LLM 更有效。
Oct, 2022
本文介绍了一种基于插入变换器的非自回归解析器来提高语义解析效率和跨语言迁移学习的能力,并在多个数据集上进行测试。
Oct, 2020