鲁棒的增量神经语义图解析
使用神经模型基于最小递归语义 (MRS) 的结构化表示,生成高质量文本,通过将基于依赖关系的 MRS 的线性化映射到英文文本,可以实现 BLEU 得分为 66.11,该方法可通过使用高精度的广覆盖语言模型生成训练语料库得到进一步提升,在完整测试集上达到 77.17,进一步在与银标准数据最接近的测试数据子集上达到 83.37,结果表明 MRS-based 表示是需要同时具有结构化语义和文本生成能力的应用程序的良好选择。
Apr, 2019
本文介绍了一种神经语义解析器,可以将自然语言表达式映射到逻辑形式,以在特定任务环境中执行,如知识库或数据库,生成响应。解析器使用基于转换的方法生成具有树形结构的逻辑形式,结合由逻辑语言定义的通用树生成算法和领域一般性操作。解析器的生成过程由结构化循环神经网络建模,提供句子上下文和生成历史的丰富编码,以进行预测。为了解决自然语言和逻辑形式标记之间的不匹配,探讨了各种注意机制。最后,我们考虑了神经语义解析器的不同训练设置,包括全监督训练、弱监督训练和远程监督训练。对各种数据集的实验表明了我们解析器的有效性。
Nov, 2017
提出了一种基于 Neural 的序列到序列的语义解析器,它能够高准确率地产生英语句子的 DRSs,并通过引入 De Bruijn 索引消除变量名以提高解析器性能,以及加入银标注数据来进一步提高性能。
Oct, 2018
该论文提出了一种名为 AmrBerger 的新的语义分析器,它探索了预训练上下文感知的单词嵌入在 AMR 分析中的可用性,并发现这些丰富的词汇特征与额外的概念信息的结合可以提高系统的性能。同时,通过分析,也展现了上下文嵌入的优点和局限,这为进一步深入理解提供了启示。
Jun, 2022
本研究提出了一种基于神经网络的语义解析器,它能够对不同的图数据库实现更高的准确性,并通过结合 BERT 嵌入和多任务学习技术进一步提高其准确度,从而在 DM、PAS、PSD、AMR 2015 和 EDS 等多个任务上取得了最新的最优结果。
Jun, 2019
介绍了一种基于转移的 AMR 解析器,可以按左到右的线性时间解析 AMR 语义表示的句子。还提出了一个测试套件来评估特定子任务并表明该解析器在处理命名实体和极性方面超过了现有的最佳解析器。
Aug, 2016
本文介绍了一种神经语义解析器,将自然语言对话转换成谓语 - 论元结构的中间表示,并通过标注的逻辑形式或其指示训练端到端的语义解析器。在各种数据集上实验,得到了具有竞争力的结果。作者从诱导的谓词 - 论元结构中发现,它们可以揭示有关语义解析有用表示形式的类型以及这些表示形式与语言学上动机的表示形式之间的差异。
Apr, 2017
该研究论文探讨了基于现代架构的全面增量依存解析是否能够具备竞争力,并建立了将严格的从左到右神经编码器与全面增量序列标注和基于转换的解码器相结合的解析器。结果表明,基于现代架构的全面增量解析远远落后于双向解析,并注意到语言学上合理解析的挑战。
Sep, 2023
在自然语言理解领域中,神经模型和图形意义表达(GMR)的交叉点仍然是一个引人注目的研究领域。本文通过引入 DAGNN-plus,一种简单且参数高效的神经架构,将上下文表示学习与结构信息传播解耦,从而填补 GMR 的确切影响的空白。通过与各种序列编码器和 GMRs 配对,该架构为英文和中文的两个数据集上进行系统实验提供了基础。实证分析使用了四种不同的图形形式和九个解析器。结果对 GMRs 的理解提供了细致入微的认识,显示出四个数据集中有三个的改进,特别是依靠高度准确的解析器的英文比中文更受青睐。有趣的是,与一般领域数据集相比,GMRs 对文学领域数据集的有效性较低。这些发现为更加明智地设计 GMRs 和解析器以提高关系分类奠定了基础,预计对自然语言理解研究的未来发展产生实质性影响。
Oct, 2023