关键词recurrent neural network grammars
搜索结果 - 6
- ACL通过依赖树转换进行多语言语法感知语言建模
通过依存句法树到常量句法树的转换,使用递归神经网络语法模型(RNNGs)进行训练,并在多语言环境下进行了实证评估,来探讨在学习模型时哪种树形式最佳,对哪些语言最适用,并通过七种类型的句法测试比较了 9 种转换方法和 5 种语言的语言模型表现 - ACL循环神经网络语法的有效批处理
本文提出了基于批处理的 RNN-Grammar 训练方法,并借助 PyTorch 实现在 GPU 上显著加速训练和推断过程,并在大规模的训练数据集和广泛的句法评估基准测试中验证了批处理 RNN-Grammar 的性能优势。
- ACL无监督循环神经网络语法
本文介绍利用无监督学习方法,采用变分推断的深度学习算法,成功地应用于语法树和句子的生成,在语言建模和语法识别领域已经有较广泛的应用。
- ACL使用束搜索在人类脑电图中发现句法
使用循环神经网络语法模型(RNNGs)解析自然文本时得到两个幅度效应,提供了句法处理的动力学模型,建议将 RNNG + beam search 组合作为人类语言理解过程中发生的句法处理的机械模型。
- ACL递归神经网络语法学习了什么?
通过对模型、数据进行改动以及嵌入注意力机制,研究表明 RNNG 模型中显式建模组成部分对于实现最佳性能至关重要;并通过注意力机制发现,头部性在短语表示中起着核心作用,而短语表示与非终结符的依附关系最小化支持了前缀假说。
- ACL循环神经网络语法
本研究介绍了递归神经网络语法与其使用的高效推理过程,分别应用于句法分析和语言模型,实验结果表明在英文的句法分析和英汉语言模型方面,其效果均优于所有以前发表的有监督生成模型和最先进的序列 RNNs。