子正则复杂度与深度学习
本文介绍了一个新的神经网络架构 Decay RNN,它可以通过模拟神经元的抑制和兴奋连接,更好地学习长期依赖关系,相较于 LSTM 在语言任务上也表现十分出色,这为 RNN 成功建模语言现象所需的归纳偏差提供了一些线索。
May, 2020
本研究对长短期记忆网络的归纳学习能力进行了实证评估,发现在不同的训练设置下模型性能存在显著差异,并强调在提出神经网络模型的学习能力时需要进行仔细的分析和评估。
Nov, 2018
本研究探讨递归神经网络在自然语言处理中的应用情况,研究发现虽然这种网络可以实现递增的句法状态,但是并不总是像人类那样进行泛化,并且没有学习到合适的语法依赖配置。
Sep, 2018
最近的研究表明,在自然语言建模和长期建模方面,线性递归神经网络(LRNN)取得了与 Transformer 相媲美的性能,同时提供了快速的并行训练和恒定的推断成本。通过研究 LRNN 的潜在规则学习能力,我们在理论上分析了一些现有的 LRNN,并发现它们在正则语言上存在一些限制。在分析的基础上,我们提出了一种新的 LRNN 模型,它配备了一个块对角线和输入相关的转移矩阵。实验证明,所提出的模型是唯一能够在正则语言任务(如求和、偶数对和模运算)中进行长度外推的 LRNN 模型。
Sep, 2023
本研究使用长短期记忆神经网络(LSTM)来探讨其在语言处理中捕捉句法结构的能力,结果表明,在受到显式语法目标的监督时,LSTM 可以捕捉相当数量的语法结构,但是需要更强的架构来进一步减少错误,且语言建模信号不足以捕捉句法敏感的依赖关系,需要更直接的监督。
Nov, 2016
通过对比具有不同模型结构的 LMs 在少量和大量数据上的表现,分析 RNNs 和 IRLMs 的性能优劣,展示 IRLMs 的一些优点与缺陷,并提出了一种基于 long-context units 的 LM 模型,通过该模型在 Microsoft Research Sentence Completion 数据上最高可以达到 60.8% 的性能。
Jan, 2013
本文研究口语理解技术中的语义解释提取问题,提出基于深度 RNN 的新型架构,通过在 ATIS 和 MEDIA 语料库上的实验,取得了较先前研究更优的最新成果。
Jun, 2017
通过将递归神经网络语言模型连接到概率有限状态自动机,我们重新审视了递归神经网络语言模型的表征能力,并证明具有线性边界精度的递归神经网络语言模型可以表示任意的正则语言模型。
May, 2024