通过从多个数据集中学习语义解析器的新方法,我们将未观测到的正式语义注释视为潜在结构变量,并在现有基础上建模,从而在框架语义解析和语义依赖解析方面取得了改进。
Apr, 2018
本文提出了一种新型的神经语言模型 Parsing-Reading-Predict Networks(PRPN),利用其特定的神经网络结构能够自动识别未标注的句子的句法结构,并利用它来学习更好的语言模型。实验证明,该模型能够发现底层的句法结构,并在单词 / 字符水平的语言模型任务上取得了最先进水平。
Nov, 2017
本文提出一种基于神经网络的生成模型,使用两个潜变量来表征句子的句法和语义,并通过训练多个损失函数来实现更好的语义和句法表征的分离,将其应用于句子相似性任务中,并发现该模型的语义和句法表征性能均最优且最为分离。
Apr, 2019
本研究探讨了多种模型构型,借助通用分解语义数据(UDS)集中丰富的句法和语义注释,联合解析通用依赖和 UDS,以获得两种形式主义的最新结果,同时分析了句法和语义联合模型的行为。我们还研究了联合建模在多语言环境下的普适性,并发现了 8 种语言中相似的趋势。
Apr, 2021
本研究提出了一种分而治之的迭代投影方法,用于上下文无关文法推断。相对于大多数自然语言处理模型,我们的方法只需要相对较少的离散参数,使得学习到的文法可以直接解释。此外,我们的方法可以从极少的语料中推断出有意义的语法规则。我们演示了几种应用该方法的方式:从头开始分类词汇和推断语法,使用现有文法并细化其类别和规则,以及在遇到新数据中的新词汇时扩展现有的文法词汇。
Jan, 2022
本研究提出了一种新的基于神经网络的两种表征形式(span 和 dependency)的句法和语义联合模型,该模型有效地整合了句法信息,最大化优化联合目标,试验结果表明语义和句法可以相互促进,以全新的表现水平取得了 Propbank 基准测试集上的最好成绩。
Aug, 2019
本文介绍了一种基于转换的解析器,可以同时生成句法和语义依存关系,使用长短期记忆技术来学习算法状态的表示,并具有线性时间复杂度和特征提取,是目前在同时学习语法和语义的解析模型中性能最优的一种。
Jun, 2016
使用一系列神经视觉语法归纳模型,通过同时学习句法和语义来展示语义引导和句法引导对语言习得的影响,并表明联合学习能够提高语法归纳、词类学习和新句子和动词意义的解释。联合学习通过相互约束句法和语义的假设空间,使得语言习得对学习者更容易。同时,研究联合推理的动态过程对于语言建模和学习研究来说是一个重要的新方向,在认知科学和人工智能领域可以帮助我们解释如何在更受限的学习环境中学习语言。
Jun, 2024
本文提出 LeAR 模型作为神经模型的一种解决方案,为语义解析任务中的组成归纳学习代数重组提供了一种方法。
Jul, 2021
研究语法诱导,使用线性无上下文重写系统进行无监督不连续解析,将文法形式限制为二元 LFCRS 并使用张量分解与参数化规则概率得到大量非终端符号,从而能够诱导出具有连续和不连续结构的语言学意义的树。
Dec, 2022