学习跨语言分布式逻辑表示以进行语义解析
通过基于多语种数据和联合嵌入的分布式假设扩展学习语义表示的新技术,学习出在跨语言上语义等价的句子之间高度对齐而在不相似的句子之间保持足够距离的表示。此方法不仅适用于单词层面,还可以对文档进行语义层面的表示学习。在两个跨语言文档分类任务上,我们的模型都能胜过之前的最佳成果,并通过定性分析和枢轴效应研究证明了我们学习到的语义表示合理且能够捕捉跨语言语义关系。
Apr, 2014
本文提出一种多任务编码 - 解码模型,通过多语言领域内语料库和英文 - 逻辑形式对标数据,在没有平行语料的情况下完成跨语言的语义解析,模型加强了语言无关编码,显著优于传统基于翻译的算法,有时能与有监督模型的上线媲美。
Apr, 2021
提出了一种在多语种情况下学习分布式表征的方法,该方法将分配相似的嵌入对齐句子,并分配不对齐的句子不相似的嵌入,模型学习到的表征具有语义信息,能够应用于跨语种文档分类任务,且未使用并行数据学习到能够跨语种捕捉语义关系的表征。
Dec, 2013
本文提出了一种使用双重学习算法的语义解析框架,通过与逻辑形式的查询之间的博弈,使语义解析器充分利用数据从而达到更好的性能。实验结果表明,该方法在 ATIS 数据集上取得了最新的最好性能,并在 Overnight 数据集上取得了有竞争力的性能表现。
Jul, 2019
使用多语言模型进行依赖解析,通过使用多语言单词聚类和嵌入,令解析器能够在多种语言中进行有效解析,同时基于语言普遍规律和类型相似性实现跨语言推断,从而使其能够更有效地从有限的注释中进行学习。
Feb, 2016
通过引入跨语言训练策略,深入分析和改进基于 Discourse Representation Structure(DRS)的语义表示分析模型,在英语、德语、意大利语和荷兰语的标准基准测试中取得了最先进的结果,并为未来的 DRS 分析研究提供了深入的见解。
Jun, 2024
XSemPLR 是一个统一的基准系统,用于跨越 22 种自然语言和 8 种意义形式的跨语言语义分析研究,使用多种变量和模型进行评估,其中编码器 - 解码器模型(如 mT5)显示出最高性能。
Jun, 2023
通过从多个数据集中学习语义解析器的新方法,我们将未观测到的正式语义注释视为潜在结构变量,并在现有基础上建模,从而在框架语义解析和语义依赖解析方面取得了改进。
Apr, 2018