本文提出了一种基于循环神经网络和长短时记忆单元的句子嵌入模型,该模型能够自动侦测句子中关键词和主题,从而进行网络文档检索等艰难的语言处理任务,并在性能上显著优于现有的先进方法。
Feb, 2015
该研究考察了语言模型在处理文本时是否能够检索先前出现的确切单词,并发现 transformers 模型可以从第一次出现的名词清单中提取词语的身份和排序,而 LSTM 模型则更加侧重于先前单词的语义要点,以及其与列表中其他单词的关系。
Oct, 2022
本文介绍了 CLSTM 模型,该模型将上下文特征(如主题)纳入模型中,在两个语料库上的实验结果表明,使用单词和主题作为特征可以提高模型在 NLP 任务中的性能,并在问题回答、句子完成、释义生成和对话系统中的下一句预测等 NL 应用程序中发挥重要作用。
Feb, 2016
本文提出了一种新的多跨度架构,通过一种新的循环长短期上下文(LSRC)网络,显式地模拟本地(短期)和全局(长期)上下文,分别模拟短期和长期的上下文信息,用于语言模型任务。
Aug, 2017
在这项研究中,我们提出了一种新的方法将语料库级别的语篇信息纳入语言模型中,称之为 “大背景语言模型”。我们采用基于长短时记忆单元 (LSTM) 的晚期融合方法,通过对 IMDB、BBC 和 Penn Tree Bank 三个语料库的评估,证明了所提出的模型显著改善了困惑度。通过分析训练的大背景语言模型,我们发现增加上下文句子数量最能使内容单词 (包括名词、形容词和动词) 受益。这表明大背景语言模型通过更好、更简单地捕捉文档的主题,改进了非条件语言模型。
Nov, 2015
本文探索多句子语境下神经语言模型的应用,并介绍结合了注意力机制和 LSTM 的新型模型在语音识别和长跨度语言模型方面的实验结果。
Nov, 2019
介绍了 Tree-LSTM,一种适用于树状网络的 LSTM 结构,该系统表现优秀,可以应用于两个任务:预测两个句子的语义相关性和情感分类。
本研究通过使用 LSTM 网络和背景信息推荐系统,为写作任务提供积极信息检索,以提高搜索质量。
Jun, 2016
本研究提出了两种基于 LSTM 的目标相关情感分类模型,通过将目标词与上下文词的语义相关性进行建模,相比传统的 LSTM 模型,这种模型可以显著提高分类准确度,并取得了最新的最优性能。
Dec, 2015
该研究致力于解决图像标题生成的问题,提出了一种名为 gLSTM 的扩展型 LSTM 模型,通过将从图像提取的语义信息作为额外输入添加到每个 LSTM 块的单元中,以更紧密地融合图像内容,同时探索了不同的长度标准化策略用于 beam search,以防止偏爱短句子,在 Flickr8K,Flickr30K 和 MS COCO 等基准数据集上取得了与甚至超过当前最先进技术的结果。
Sep, 2015