基于 LSTM 的情感分类模型建模丰富语境
本文探索了利用不同位置、时间和作者搜集的大量元数据来分析推文情感,并使用基于贝叶斯方法的分类器,将上述元数据与 n-grams 等标准语言特征相结合,以更准确地对推文情感进行分类。结果表明,将 Twitter 可用的丰富上下文信息整合到情感分类中是一个有希望的研究方向。
May, 2016
本研究提出了两种基于 LSTM 的目标相关情感分类模型,通过将目标词与上下文词的语义相关性进行建模,相比传统的 LSTM 模型,这种模型可以显著提高分类准确度,并取得了最新的最优性能。
Dec, 2015
本文介绍了 CLSTM 模型,该模型将上下文特征(如主题)纳入模型中,在两个语料库上的实验结果表明,使用单词和主题作为特征可以提高模型在 NLP 任务中的性能,并在问题回答、句子完成、释义生成和对话系统中的下一句预测等 NL 应用程序中发挥重要作用。
Feb, 2016
本文提出了一种新颖的表征学习模型,通过系统性地利用用户 Twitter 时间轴上的文本 “上下文”,并考虑用户背景知识如写作风格和写作主题总结,从而准确地计算推文的语义表示,并通过实验证明,在预测用户配偶、教育和工作等人物属性时,该模型优于现有最先进模型,分别提高了 19.66%、2.27% 和 2.22%。
Dec, 2016
提出了一种新的句子分类方法 Context-LSTM-CNN,利用了与被分类句子相邻的句子形成的上下文和 LSTM 处理被分类句子的远距离依赖关系以及使用了基于 CNN 的短跨度特征。该方法在两个不同的数据集上始终优于以前的方法。
Aug, 2018
在这项研究中,我们提出了一种新的方法将语料库级别的语篇信息纳入语言模型中,称之为 “大背景语言模型”。我们采用基于长短时记忆单元 (LSTM) 的晚期融合方法,通过对 IMDB、BBC 和 Penn Tree Bank 三个语料库的评估,证明了所提出的模型显著改善了困惑度。通过分析训练的大背景语言模型,我们发现增加上下文句子数量最能使内容单词 (包括名词、形容词和动词) 受益。这表明大背景语言模型通过更好、更简单地捕捉文档的主题,改进了非条件语言模型。
Nov, 2015
使用卷积神经网络与长短时记忆网络,我们成功实现了最先进的 Twitter 情感分类器,通过海量无标注数据来预训练词向量,然后使用少量无标注数据通过远程监督来微调嵌入向量,最终在 SemEval-2017 Twitter 数据集上对 CNN 和 LSTM 进行了再次微调,使用了集成学习方法,我们在所有五个英文子任务中均排名第一。
Apr, 2017
本研究使用长短期记忆网络 (LSTM) 模型,在新浪微博的社交媒体评论中实现了对中国情感的分析,达到了约 92%的准确率,利用自然语言处理(NLP)和公众舆论监督相结合,对于监督公众情绪和趋势至关重要,可用于识别和解决社会问题。
Oct, 2022