本研究提出了一种新的基于神经网络的两种表征形式(span 和 dependency)的句法和语义联合模型,该模型有效地整合了句法信息,最大化优化联合目标,试验结果表明语义和句法可以相互促进,以全新的表现水平取得了 Propbank 基准测试集上的最好成绩。
Aug, 2019
使用多语言模型进行依赖解析,通过使用多语言单词聚类和嵌入,令解析器能够在多种语言中进行有效解析,同时基于语言普遍规律和类型相似性实现跨语言推断,从而使其能够更有效地从有限的注释中进行学习。
Feb, 2016
本文提出了一种整合了一切的语义分析模型,采用词对分类问题的方法,运用最大熵分类器和特征选择工程解决了该领域迄今为止最大的特征空间问题,获得了 CoNLL-2008 共享任务评估数据集的最好性能。
Jan, 2014
本研究提出了一个语法依存树库,用于儿童自然语言的注释和研究,分析了写作和口语之间的语言特征并探讨了儿童语言发展与句法分析器性能的关系。
Sep, 2022
本文提出了一个动态图形框架,能够有效地建模上下文话语、令牌、数据库模式及其交互,并通过强大的重新排名模型进一步增强。该模型在 SParC 和 CoSQL 数据集上实现了新的最优表现。
Jan, 2021
通过基于多语种数据和联合嵌入的分布式假设扩展学习语义表示的新技术,学习出在跨语言上语义等价的句子之间高度对齐而在不相似的句子之间保持足够距离的表示。此方法不仅适用于单词层面,还可以对文档进行语义层面的表示学习。在两个跨语言文档分类任务上,我们的模型都能胜过之前的最佳成果,并通过定性分析和枢轴效应研究证明了我们学习到的语义表示合理且能够捕捉跨语言语义关系。
Apr, 2014
提出了一种基于转换的方法,通过训练单个模型,可以有效地解析任何输入句子,支持连续 / 投影和不连续 / 非投影的句法结构,并证明了这两种句法形式可以在训练过程中互相受益,提高了在多个基准测试中的准确性,如英语和中文 Penn 树库以及德语 NEGRA 和 TIGER 数据集。
Sep, 2020
该论文介绍了 Stanford 的 CoNLL 2018 UD 共享任务中的系统,这是一个完整的神经管道系统,可以将原始文本作为输入,并执行共享任务所需的所有任务,从分词和句子分割到词性标注和依赖关系解析,并通过广泛的消融研究展示了不同的模型组件的有效性。
Jan, 2019
本文介绍了一种新颖的深度学习架构,通过将两个语言语义的神经模型相结合,提供了一个语义分析系统,无需解析即可从自然语言语句和问题中生成本体库特定的查询,使其特别适用于语法错误或句法非典型的文本,例如 Twitter,也允许开发受资源限制的语言的语义解析器。
该论文探究了加入不同语言结构对神经机器翻译性能的影响,提出了一种能够自然生成目标端任意树形结构的神经机器翻译模型,并且发现无需任何语言知识构造的平衡二叉树结构具有最佳的性能提升,能够超过标准的 seq2seq 模型和其他引入目标端语法的方法,提高 2.1 个 BLEU 分数。
Aug, 2018