本研究利用双向 LSTM 句子表示模型以及新颖的转移系统,成功实现了依存句法和短语句法的有监督学习,达到了最先进的效果。
Jun, 2016
本文提出了一种基于递归组合的循环神经网络编码器的分析树组合向量表示方法,将其作为贪心自底向上的依赖关系分析器的骨干,无需外部词嵌入,实现了英语和中文的最新精度。
Mar, 2016
本文研究使用基于 BiLSTM 的序列标注方法重构了依存句法分析,并通过在 PTB 和 UD 树库样本上的实验,证明该方法在速度和准确性之间提供了很好的平衡,结果与更复杂的方法相当竞争力。
Feb, 2019
该研究论文探讨了基于现代架构的全面增量依存解析是否能够具备竞争力,并建立了将严格的从左到右神经编码器与全面增量序列标注和基于转换的解码器相结合的解析器。结果表明,基于现代架构的全面增量解析远远落后于双向解析,并注意到语言学上合理解析的挑战。
Sep, 2023
该文提出了一种新的序列到序列神经网络控制结构 —— 堆栈 LSTM,用于学习过渡式依赖解析器的解析状态,将其应用于解析模型中,实现了解析器状态的三个方面,提高了解析性能。
May, 2015
本文比较了传统的非神经依存解析器和基于 BiLSTM 模型的依存解析器的结构特征,讨论了其决策过程中的隐含信息来源,并通过模型实验表明,结构上下文对模型有着显著的影响。
May, 2019
本研究提出了一种新型的神经网络模型,该模型可以同时学习 POS 标记和基于图的依赖解析。该模型使用双向 LSTM 来学习两个任务共享的特征表示,从而解决了特征工程问题。该模型在 19 种语言的通用依赖关系项目上进行了广泛的实验,结果表明我们的模型优于基于神经网络的最新关于 POS 标记和基于转移的依赖解析的程序,从而取得了新的最优性能。
May, 2017
论文提出了一种新的深度学习架构,用于解决自然语言推理任务,采用依赖阅读的双向 LSTM 网络(DR-BiLSTM)来模拟前提和假设之间的关系。采用复杂的集成策略将多个模型组合起来,进一步提高了结果。研究表明 DR-BiLSTM 在 Stanford NLI 数据集上获得了最佳单模型和集成模型效果,取得了新的最优成绩。
Feb, 2018
本文介绍了一种基于深度学习的语义依存图形式分析系统,该系统采用效率高且几乎拓扑结构简单的推理方法,通过组合双向 - LSTM 和多层感知机,能够在不使用手工特征或语法的情况下显著提高语义依存分析的技术水平。作者还对多任务学习策略进行了研究,并获得了新的技术成果。
Apr, 2017
本篇文章提出了一种深度学习模型,用于从给定句子中提取方面术语。 该模型基于双向依赖树,同时利用自下而上和自上而下的传播方法获得了更全面的信息,并且在 SemEval 数据集上优于现有的基准模型。
May, 2018