基于目标的情感分类的多任务学习
提出了一种基于主题依赖的注意力模型用于情感分类和主题提取,其中在多任务学习框架下,通过注意力机制推导出局部主题嵌入。模型基于修改后的门控循环单元 (GRU) 实现了情感分类和具有不同情感极性的主题提取,能够不使用方面级别注释的情况下提取质量较高的主题。
Aug, 2019
本研究提出了一个新颖的统一模型来解决目标基情感分析的任务,其应用了统一的标记方案,并且使用两个堆叠的循环神经网络来提高主任务的性能,并通过门机制维护观点目标内的情感一致性,在三个基准数据集上实验结果表明该框架具有优异的效果。
Nov, 2018
研究新架构用于情感分析的任务,结合了大规模的 MEGA-DT treebank 以及基于混合 TreeLSTM 分层注意模型的神经架构,通过情感相关的话语增强情感预测性能,实验结果显示,性能优于使用先前基于人类注释数据训练的良好建立的话语解析器的方法,同时演示了一个简单的组合方法如何进一步增强性能。
Nov, 2020
该研究提出了一种基于递归神经网络的多任务学习方法,能够有效地处理与情感分析相关的多个分类任务,并在优化细粒度情感分类问题中实现了领先的结果。
Jul, 2017
本研究提出了两种基于 LSTM 的目标相关情感分类模型,通过将目标词与上下文词的语义相关性进行建模,相比传统的 LSTM 模型,这种模型可以显著提高分类准确度,并取得了最新的最优性能。
Dec, 2015
研究了目标导向的多模态情感分类中当前的性能瓶颈问题,通过实证评估和深入分析数据集,揭示了当前多模态情感分类系统主要依赖文本模态,提出了关于模型设计和数据集构建的几个方向。
Oct, 2023
我们提出了一种新的情感分类模型,使用 RNN 和 CNN 并加入目标特定的词语表示生成机制,以及保留 RNN 层原始上下文信息的组件,最终在多个评估标准上达到了最新的最优表现。
May, 2018
本研究介绍了一项名为 Multimodal Chat Translation (MCT) 的新任务,旨在通过与对话历史和视觉上下文相关联的信息来生成更准确的翻译。为此,构建了一个 Multimodal Sentiment Chat Translation Dataset (MSCTD),并建立了多个基线系统,实现了基于情感的各种特征多模式融合。初步实验证实了人工智能上下文多模式融合和情感因素对 MCT 任务的积极影响,为多模式聊天翻译和多模式对话情感分析的研究提供了可能性。
Feb, 2022
本文中,我们提出了一种多任务学习方法,将来自句法和语义辅助任务的信息(包括否定和推测范围检测)结合起来,创建了更具鲁棒性的英语语言模型,以处理定向情感分析中的语言现象,经实验证明,基于多任务和通过语言建模的迁移学习都能提高模型性能,但总体表现仍有改进的空间。我们在此链接上发布了数据集和源代码。
Oct, 2020