本文介绍了一种用于解决长期依赖的神经网络结构——循环神经网络,并通过对语言建模等实验得出其同LSTM网络有着类似的性能表现。
Dec, 2014
介绍了 Tree-LSTM,一种适用于树状网络的 LSTM 结构,该系统表现优秀,可以应用于两个任务:预测两个句子的语义相关性和情感分类。
Feb, 2015
使用字符级语言模型作为可解释的测试平台,本研究分析了LSTM的表示、预测和错误类型,并揭示了其提高性能的长程结构依赖性的来源。
Jun, 2015
本研究提出一种基于长短时记忆(LSTM)单元的循环神经网络语言模型(RNN-LM),有效地利用字符级和单词级输入,在预测英语文本中的下一个单词方面表现优异。
Jun, 2016
通过使用RNN模型进行$n$-gram语言模型平滑来研究其有效的记忆深度,实验结果表明,在保持句子独立性假设的前提下,使用dropout技术的LSTM cell在编码$n$-gram状态方面的表现最佳,且在$n=9$时,LSTM $n$-gram与LSTM LM表现相当,同时在$n=13$时略优于其,该方法可以提高模型的性能,特别适用于模拟短格式文本如语音搜索/查询语言模型。
Mar, 2017
本研究对长短期记忆网络的归纳学习能力进行了实证评估,发现在不同的训练设置下模型性能存在显著差异,并强调在提出神经网络模型的学习能力时需要进行仔细的分析和评估。
Nov, 2018
使用长短时记忆神经网络模型探索了自然语言中的分层结构,结果显示LSTM无法学习到相关的上下文无关规则,但仍是许多自然语言任务的高效工具之一。
本文介绍了长短时记忆网络的互相门机制,以实现更好地建模自然语言处理中上下文之间的交互, 并通过实验在多个数据集上证明了其在语言建模上较传统模型具有更好的泛化能力和性能表现。
Sep, 2019
该研究考察了语言模型在处理文本时是否能够检索先前出现的确切单词,并发现transformers模型可以从第一次出现的名词清单中提取词语的身份和排序,而LSTM模型则更加侧重于先前单词的语义要点,以及其与列表中其他单词的关系。
Oct, 2022
本文研究在序列数据上的持续学习问题,重点讨论了LSTM网络的遗忘和多任务学习问题,并提出了两种有效的解决方案,证明了这种方法比现有的权重正则化方法更为简单、高效,可应用于计算机系统优化和自然语言处理等领域。
May, 2023