宏语法及整体触发在有效语义解析中的应用
本文介绍了一种神经语义解析器,可以将自然语言表达式映射到逻辑形式,以在特定任务环境中执行,如知识库或数据库,生成响应。解析器使用基于转换的方法生成具有树形结构的逻辑形式,结合由逻辑语言定义的通用树生成算法和领域一般性操作。解析器的生成过程由结构化循环神经网络建模,提供句子上下文和生成历史的丰富编码,以进行预测。为了解决自然语言和逻辑形式标记之间的不匹配,探讨了各种注意机制。最后,我们考虑了神经语义解析器的不同训练设置,包括全监督训练、弱监督训练和远程监督训练。对各种数据集的实验表明了我们解析器的有效性。
Nov, 2017
本文提出了一种方法,使用动态规划来表示一组一致的逻辑形式,在生成虚构世界并进行众包标注的基础上,对这些一致的逻辑形式进行过滤,从而提高了基于句子语义分析的问题回答覆盖率。
Jun, 2016
本研究针对语义解析器在零样本学习中难以正确选择新数据库常数集的问题,提出一种全局推理数据库常数集的解析器,采用图神经网络的消息传递机制,考虑问题的情境信息,软选择一部分数据库常数集,并通过训练模型根据数据库常数与问题单词的全局匹配度对解析结果排序。在面向包含复杂数据库的零样本语义解析数据集 Spider 中,我们将该方法应用于当前最先进模型,将准确率从 39.4%提高到 47.4%。
Aug, 2019
本文提出了一种将自然语言句子映射到其含义的 lambda 演算编码的方法,并描述了一种学习算法,用于将标记有 λ 演算表达式的句子的训练集作为输入。应用该方法,将自然语言接口学习到数据库,得到的分析器在两个基准数据库领域中优于之前的方法。
Jul, 2012
通过逐步提示的基于句法分析的分解,本研究发现了更多语义分析任务中的挑战。这一最优方法使我们在 CFQ 上取得了最新的技术成果,同时只需要传统方法所需训练数据的 1%。由于我们方法的普适性,我们期望类似的方法将在知识密集型应用中取得新的成果。
Sep, 2022
本文提出了一种基于领域本体的框架,通过生成人类可理解的自然语言模板,从而将自然语言句子转化为机器可读的含义表示;并解决了语义解析在大规模领域中由训练数据的获取以及模型推广的复杂度所面临的挑战,该框架在六个领域进行数据训练,证明了其能快速且低成本地进行语义解析。
Dec, 2018
本文提出了一种基于概率的自然语言生成模型 HBG,与传统方法不同的是,这种方法利用详细的语言学信息来消除歧义,通过使用 Treebank 语料库和决策树构建,HBG 从句子的句法、语义和结构方面确定正确的分析。在与最佳现有鲁棒概率分析模型 P-CFG 的 head-to-head 比较中,HBG 模型取得了显著的优势,将分析精度率从 60% 提高到 75%,减少了 37% 的误差。
May, 1994
本文提出了一种使用双重学习算法的语义解析框架,通过与逻辑形式的查询之间的博弈,使语义解析器充分利用数据从而达到更好的性能。实验结果表明,该方法在 ATIS 数据集上取得了最新的最好性能,并在 Overnight 数据集上取得了有竞争力的性能表现。
Jul, 2019
利用培训语言模型模仿定理证明器在过程生成的问题上进行逻辑推理仍然是自然语言处理的一个挑战。我们提出了一个更简单、更普遍的声明性框架,通过灵活的上下文敏感规则来绑定多种语言(特别是简化英语和 TPTP 定理证明语言),从而改进了逻辑推理的能力。我们使用语义约束在生成过程中,并对谓词进行仔细的英语表达,提高了逻辑推理能力,而不损害自然英语任务。我们使用相对较小的 DeBERTa-v3 模型在人类编写的逻辑数据集 FOLIO 上实现了最先进的准确性,在有或无外部求解器的情况下,精度超过了 GPT-4 12%。
Jun, 2024
该研究提出了一种基于语法规则的非监督句法树生成方法,利用了语言的通用语法知识,采用强化学习和自编码器等技术,在 MNLI 和 WSJ 两个基准数据集上实现了最好的结果。
May, 2021