使用带有注意力机制的树形结构长短期记忆网络进行日语情感分类
本文提出了一种基于树形结构的注意力神经网络模型,用于情感分类问题。该模型使用自下向上和自上而下的信息传播结合语法树中节点周围的结构信息。模型在构建句法树时,利用结构注意力识别最显著的表示。实验结果表明,该模型在斯坦福情感树库数据集上实现了最先进的性能表现。
Jan, 2017
本文提出了一种新的端对端句法神经机器翻译模型,在源端短语结构的基础上扩展了序列到序列模型,并引入了注意力机制,可以软对齐短语和源句子中的单词,实验结果表明,相比于序列到序列的注意力 NMT 模型,该模型表现显著提升,在 WAT'15 英日翻译数据集上,与当下最优秀的树到串翻译系统相比可媲美。
Mar, 2016
本研究提出了一种基于双向长短期记忆的新型两层注意网络,利用 WordNet 生成知识图嵌入来提高情感分析的预测能力,将其与基于支持向量回归和多层感知机网络的监督模型相结合,实验结果表明该模型在 SemEval 2017 上表现优于顶尖系统,分别将 Sub-tracks 1 和 2 的准确率提高了 1.7 和 3.7 个百分点。
May, 2018
本文介绍了一种基于 Long Short-Term Memory(LSTM)神经网络的日文分词方法,该方法考虑了日文中的汉字、平假名和片假名等正字体的变异及其难度,同时考虑了全局语境因素,实验结果表明该方法在实现不同日语语料库上达到了最先进的准确性。
Sep, 2017
本文提出了一种递归神经网络的扩展,使用了一种长短期记忆结构的变体。该扩展允许将位于解析树底部的信息存储在内存寄存器(“内存单元”)中,并在解析树的较高位置上使用。这提供了一个解决梯度消失问题并允许网络捕获长距离依赖的方案。实验结果表明,本文方案在斯坦福情感树库上的性能优于传统的神经网络组合。
Mar, 2015
本研究提出了使用句子级别注释训练的简单模型,同时采用正则化方法,以模拟情感词汇、否定词和强度词汇的语言学角色,从而生成语言学相关的表示形式,并且能够捕捉情感、否定和强度词汇的情感转移效应,同时在不损失模型简洁性的前提下获得竞争性的结果。
Nov, 2016
本文提出了一种新方法,通过解决上下文特定词义的挑战来提高情感分析的效果。它结合了双向长短期记忆网络(Bi-LSTM)和知识图谱的同义词数据的优势,利用动态注意力机制开发出一种知识驱动的状态向量。为了对特定方面的情感进行分类,该方法构建了一个集成位置数据的存储库,然后使用多层门控循环单元(GRU)分析此数据以确定与特定方面词相关的情感特征。对三个广泛可用的数据集的测试结果表明,该方法在情感分类方面表现出优秀的性能。
Dec, 2023
提出了 Cached Long Short-Term Memory 神经网络(CLSTM)来捕获长文本中的语义信息,引入了缓存机制以提高循环单元的记忆能力,在文档级情感分类方面表现优于现有模型。
Oct, 2016
本文探索了两种从文档级数据转移知识的方法,以提高方面级情感分类的性能。我们在 SemEval 2014、2015 和 2016 年的 4 个公共数据集上证明了我们方法的有效性,并显示注意力机制的 LSTM 从文档级知识中受益。
Jun, 2018