利用多任务学习否定词改进情感分析
本文中,我们提出了一种多任务学习方法,将来自句法和语义辅助任务的信息(包括否定和推测范围检测)结合起来,创建了更具鲁棒性的英语语言模型,以处理定向情感分析中的语言现象,经实验证明,基于多任务和通过语言建模的迁移学习都能提高模型性能,但总体表现仍有改进的空间。我们在此链接上发布了数据集和源代码。
Oct, 2020
本研究旨在演示一种通过词义消歧唯一地评估文本的词汇结构以检测否定的方法,从而解决否定对情感分析的影响,达到更好的准确性,并且在情感分析方面比传统方法有着显著的提高。
Feb, 2023
本研究提出了使用句子级别注释训练的简单模型,同时采用正则化方法,以模拟情感词汇、否定词和强度词汇的语言学角色,从而生成语言学相关的表示形式,并且能够捕捉情感、否定和强度词汇的情感转移效应,同时在不损失模型简洁性的前提下获得竞争性的结果。
Nov, 2016
本文提出了一种新的针对否定语的预训练策略,包括有针对性的数据增强和否定掩蔽,以更好地将否定信息纳入语言模型。在常见的基准测试中进行的广泛实验显示,我们提出的方法提高了否定检测性能和泛化能力,超过了强基线 NegBERT (Khandewal 和 Sawant, 2020)。
May, 2022
本文提出了一种交互式多任务学习网络(IMN)用于处理基于方面的情感分析,它能够同时在标记级别和文档级别上联合学习多个相关任务,介绍了一种消息传递架构,其中信息通过一组共享的潜在变量迭代地传递到不同任务,实验结果表明,与多个基准模型相比,提出的方法在三个基准数据集上表现更加优越。
Jun, 2019
本论文旨在探讨情感分类和讽刺检测两个 NLP 任务之间的相关性,并提出了一种基于多任务学习的深度神经网络框架来模拟这种相关性,以改善这两个任务的性能。在基准数据集中,我们的方法比现有技术的表现提高了 3-4%。
Jan, 2019
本篇论文研究了使用预训练语言模型在情感分析任务,尤其是针对少量数据的方面 - 基础情感分析,提出了一种生成式语言模型来处理抽取方面、抽取类别、预测极性等任务,并证明了这种方法在多任务、少样本学习上比以前的方法有更好的表现。
Apr, 2022
本文提出了一种简单易用的多语言情感分析框架,旨在作为情感分析测试基线和构建新情感分析系统的起点。该框架经过在 8 种不同语言的比较中,在其中三种语言的国际竞赛中名列前茅,在其他语言中也超越了报告的结果。
Dec, 2016
该研究提出了一种基于递归神经网络的多任务学习方法,能够有效地处理与情感分析相关的多个分类任务,并在优化细粒度情感分类问题中实现了领先的结果。
Jul, 2017