本文介绍了一种神经语义解析器,可以将自然语言表达式映射到逻辑形式,以在特定任务环境中执行,如知识库或数据库,生成响应。解析器使用基于转换的方法生成具有树形结构的逻辑形式,结合由逻辑语言定义的通用树生成算法和领域一般性操作。解析器的生成过程由结构化循环神经网络建模,提供句子上下文和生成历史的丰富编码,以进行预测。为了解决自然语言和逻辑形式标记之间的不匹配,探讨了各种注意机制。最后,我们考虑了神经语义解析器的不同训练设置,包括全监督训练、弱监督训练和远程监督训练。对各种数据集的实验表明了我们解析器的有效性。
Nov, 2017
本文介绍了一种神经语义解析器,将自然语言对话转换成谓语 - 论元结构的中间表示,并通过标注的逻辑形式或其指示训练端到端的语义解析器。在各种数据集上实验,得到了具有竞争力的结果。作者从诱导的谓词 - 论元结构中发现,它们可以揭示有关语义解析有用表示形式的类型以及这些表示形式与语言学上动机的表示形式之间的差异。
Apr, 2017
本文提出了一种基于领域本体的框架,通过生成人类可理解的自然语言模板,从而将自然语言句子转化为机器可读的含义表示;并解决了语义解析在大规模领域中由训练数据的获取以及模型推广的复杂度所面临的挑战,该框架在六个领域进行数据训练,证明了其能快速且低成本地进行语义解析。
Dec, 2018
本文探讨了在自然语言推理的背景下,将注意力机制应用到句法树这种更加丰富的拓扑结构上,不仅可以利用底层的句法信息,还可以使注意力更具可解释性。结果表明,该方法非常有效,并进行了广泛的质量分析,提取出了为什么以及如何工作的见解和直觉。
Jul, 2016
我们介绍了一种利用循环神经网络语法编码器和新颖的注意力递归神经网络解码器的模型,利用策略梯度强化学习来在源语言和目标语言上诱导无监督树结构,从而训练出在字符级数据集中相当不错的分割和浅层解析表现,接近注意力基准。
Sep, 2017
本文提出了一种基于神经网络的解析器 - 排序器系统用于弱监督语义解析,通过对表征的推理公式使用线索来生成候选的树结构逻辑形式,并对其进行排序,以此平衡正确执行和掌握语义的两个目标,进一步使用神经编码的词表注入领域知识,并在三个 Freebase 数据集上进行实验,获得了达到最先进水平的效果.
Aug, 2018
本篇研究使用神经网络模型来实现自然语言文本到一阶逻辑表达式的语义解析,在此基础上提出了一种改进的编码 - 解码模型,能够更加准确地生成一阶逻辑公式,并通过大规模数据集的评估证明了这种方法的有效性和可扩展性。最终将研究代码和数据集公开,为进一步的基于逻辑的 NLP 相关研究提供便利。
Feb, 2020
本文提出了一种使用图神经网络和解码器复制机制相结合的方法来生成有实体的逻辑表达式,该方法不需要预训练即可在多个任务上达到与当前最先进方法竞争的效果,并且当与 BERT 预训练结合使用时,优于现有方法。
May, 2019
我们提出了一种新颖的半监督方法,应用于序列转换和语义分析。该方法包含基于生成模型的无监督成分,在该模型中,潜在的句子生成不成对的逻辑形式,我们将此方法应用于许多语义解析任务,重点关注训练数据标记不足的领域,并使用合成逻辑形式扩充这些数据集。
Sep, 2016
训练多任务自动编码器进行语言任务,分析学习到的句子隐藏表示。加入翻译和词性解码器时,表示将显着改变。使用的解码器越多,模型根据句法相似性对句子进行聚类的效果越好。通过插值句子来探索表示空间的结构,得出很多有可识别句法结构的伪英语句子。最后,我们指出了模型的一个有意思的特性:两个句子之间的差分向量可以添加到第三个具有类似特征的句子中,以有意义的方式改变它。
Jan, 2018