基于多情感资源增强的注意力网络进行情感分类
本研究提出了一种基于双向长短期记忆的新型两层注意网络,利用 WordNet 生成知识图嵌入来提高情感分析的预测能力,将其与基于支持向量回归和多层感知机网络的监督模型相结合,实验结果表明该模型在 SemEval 2017 上表现优于顶尖系统,分别将 Sub-tracks 1 和 2 的准确率提高了 1.7 和 3.7 个百分点。
May, 2018
本文提出了一种新方法,通过解决上下文特定词义的挑战来提高情感分析的效果。它结合了双向长短期记忆网络(Bi-LSTM)和知识图谱的同义词数据的优势,利用动态注意力机制开发出一种知识驱动的状态向量。为了对特定方面的情感进行分类,该方法构建了一个集成位置数据的存储库,然后使用多层门控循环单元(GRU)分析此数据以确定与特定方面词相关的情感特征。对三个广泛可用的数据集的测试结果表明,该方法在情感分类方面表现出优秀的性能。
Dec, 2023
提出了一种新的双重注意模型 (DAM) 用于方面级情感分类,该模型使用依存标签作为关注机制以提高性能,并在 SemEval 2014 和 Twitter 数据集上进行实验,取得了良好的效果。
Mar, 2023
本文提出了基于深度记忆网络的方面级情感分类模型,并通过多层神经注意力模型计算上下文词汇的重要程度和文本表示,在笔记本和餐厅数据集上的实验结果表明,这种方法的表现与现有的 SVM 系统相媲美,在多个指标方面优于 LSTM 和基于注意力的 LSTM 结构,运行速度也非常快。
May, 2016
本文提出了一种交互式多任务学习网络(IMN)用于处理基于方面的情感分析,它能够同时在标记级别和文档级别上联合学习多个相关任务,介绍了一种消息传递架构,其中信息通过一组共享的潜在变量迭代地传递到不同任务,实验结果表明,与多个基准模型相比,提出的方法在三个基准数据集上表现更加优越。
Jun, 2019
该论文对文档级情感分析模型进行了广泛比较评估,在关注模型部署可行性和资源消耗的重要指标方面,考虑了不同的特征提取技术、集成效果、任务特定的深度学习建模和领域无关的大型语言模型(LLMs)。研究发现,尽管微调的 LLM 获得了最高的准确率,但某些替代配置在资源消耗方面提供了巨大的节省,而准确率只有微小的损失。此外,研究还发现,在较小的数据集上,准确率的差异越来越小,而资源消耗的差异却越来越大。
Aug, 2023
开发了一种新颖的深度结构 Gated Multimodal Embedding LSTM with Temporal Attention (GME-LSTM (A)) 模型,以单词级别进行多模态情感分析。在公开数据集 CMU-MOSI 上表现 State-of-the-art 的情感分类和回归结果,强调了 Temporal Attention Layer 在情感预测中的重要性和 Gated Multimodal Embedding 对于过滤有噪音的多模态的有效性。
Feb, 2018
本文提出了一个名为 Attentional Encoder Network (AEN) 的网络,它使用基于注意力机制的编码器来处理上下文与目标之间的建模,采用标签平滑正则化来解决标签不可靠的问题,并将预训练的 BERT 应用于情感分类任务,实现了新的最先进的结果。实验和分析证明了我们模型的有效性和轻量级。
Feb, 2019
通过将两通道卷积神经网络与环状网络相结合,建立了一种多模态情感识别方法,该方法可以有效提取情感信息并提高学习效率。实验表明,基于特征融合的情感分析方法能够有效提高情感数据集的识别准确性,并减少学习时间。模型具有一定的泛化能力。
Nov, 2023
本文提出一种将词嵌入、词表嵌入和注意力机制集成到卷积神经网络中进行情感分析的新方法,该方法在 SemEval'16 任务 4 数据集和 Stanford 情感树库上得到了比现有最先进系统更好的结果。
Oct, 2016