该研究利用层次化 LSTM 来处理社交媒体数据中如微博和推文等的情感分析,通过建模各种上下文,特别是长期上下文,以提高情感分类的准确性。
May, 2016
该研究旨在解决聊天机器人系统中当需要考虑自然语言上下文的情况及使用长短时记忆网络学习分类器的问题,并取得了显著的分类准确性提升。
Nov, 2016
本研究提出了使用句子级别注释训练的简单模型,同时采用正则化方法,以模拟情感词汇、否定词和强度词汇的语言学角色,从而生成语言学相关的表示形式,并且能够捕捉情感、否定和强度词汇的情感转移效应,同时在不损失模型简洁性的前提下获得竞争性的结果。
提出了一种新的句子分类方法 Context-LSTM-CNN,利用了与被分类句子相邻的句子形成的上下文和 LSTM 处理被分类句子的远距离依赖关系以及使用了基于 CNN 的短跨度特征。该方法在两个不同的数据集上始终优于以前的方法。
Aug, 2018
在这项研究中,我们提出了一种新的方法将语料库级别的语篇信息纳入语言模型中,称之为 “大背景语言模型”。我们采用基于长短时记忆单元 (LSTM) 的晚期融合方法,通过对 IMDB、BBC 和 Penn Tree Bank 三个语料库的评估,证明了所提出的模型显著改善了困惑度。通过分析训练的大背景语言模型,我们发现增加上下文句子数量最能使内容单词 (包括名词、形容词和动词) 受益。这表明大背景语言模型通过更好、更简单地捕捉文档的主题,改进了非条件语言模型。
Nov, 2015
我们使用长短时记忆(LSTM)来捕捉上下文依赖关系,以解决信息检索中的词汇不匹配和长期上下文建模问题,从而显着优于现有的网络文档检索方法。
Dec, 2014
本文介绍了 CLSTM 模型,该模型将上下文特征(如主题)纳入模型中,在两个语料库上的实验结果表明,使用单词和主题作为特征可以提高模型在 NLP 任务中的性能,并在问题回答、句子完成、释义生成和对话系统中的下一句预测等 NL 应用程序中发挥重要作用。
Feb, 2016
本文探索了两种从文档级数据转移知识的方法,以提高方面级情感分类的性能。我们在 SemEval 2014、2015 和 2016 年的 4 个公共数据集上证明了我们方法的有效性,并显示注意力机制的 LSTM 从文档级知识中受益。
Jun, 2018
本研究使用长短期记忆神经网络(LSTM)来探讨其在语言处理中捕捉句法结构的能力,结果表明,在受到显式语法目标的监督时,LSTM 可以捕捉相当数量的语法结构,但是需要更强的架构来进一步减少错误,且语言建模信号不足以捕捉句法敏感的依赖关系,需要更直接的监督。
本文提出了一种基于循环神经网络和长短时记忆单元的句子嵌入模型,该模型能够自动侦测句子中关键词和主题,从而进行网络文档检索等艰难的语言处理任务,并在性能上显著优于现有的先进方法。
Feb, 2015