针对方面的情感分析的方面特定的上下文建模
通过使用自适应掩码方法,本论文提出了一种用于细粒度语言学问题的方面级情感分析(ABSA)方法,其可以从给定文本中提取多方面的观点和情感,以提高 ABSA 的准确性和 F1 得分。
Feb, 2024
提出一种采用反事实数据增强方法,针对情感分析任务中球面情感倾向分析的问题,该方法利用集成梯度计算和蒙版技术对情感表达式进行反转,并通过一个 T5 预训练语言模型进行预测,在三个开源数据集上获得更好的结果。
Jun, 2023
本研究针对情感分析在实际应用中的可靠性进行了探究,通过加强当前最佳的句法感知模型,并基于丰富的伪数据进行敌对训练,进一步提高了模型的鲁棒性。实验结果表明,所提出的方法比现有的基线模型的鲁棒性性能更好,同时合成语料库作为额外数据能够进一步提高测试准确性。
Apr, 2023
本文介绍了一种可扩展到任何 ABSA 子任务的生成框架 PFInstruct,通过在任务描述中添加 NLP 相关任务前缀,相较于基准模型,在所测试的所有 SemEval 子任务中取得了更好的性能,并在 Rest14(ATE 子任务)上以 + 3.28 的 F1 分数和在 AOOE 子任务上平均 + 5.43 的 F1 分数超越了之前的最新结果,并且我们发现,即使存在噪声,前缀增强的提示质量也可以提高模型性能。同时,我们的方法在生物医学领域数据集(ERSA)上也取得了有竞争力的结果。
May, 2024
本文通过整合 DeBERTa 模型和 Local Context Focus 机制提出了一个多任务学习模型,来解决基于方面的情感分析问题,在 SemEval-2014 以及 ACL Twitter 数据集上取得了显著的进步。
Jul, 2022
提出了一种新颖的 LSTM 变体,称为 aspect-aware LSTM(AA-LSTM),将方面信息包含在上下文建模阶段的 LSTM 单元中,以生成动态的方面感知上下文表示,实验结果表明 AA-LSTM 的有效性。
May, 2019
本研究提出了一种基于传输学习的混合方法,通过利用大型语言模型和传统句法依存关系生成弱监督注释,以解决当前最先进的 ABSA 研究中的显著挑战。在多个数据集上进行了大量实验,证明了该混合方法在方面词提取和方面情感分类任务中的有效性。
Mar, 2024
通过增强方面 - 句子感知关注机制,提出了一个名为 A3SN 的新颖技术,通过增加注意力模块和整合特征表示,增强了 Aspect-Based Sentiment Analysis(ABSA)的效果,并在三个基准数据集上胜过了最先进的基准模型。
May, 2024
本文提出了一种名为双粒度伪标签(DPL)的新框架,使用伪标签的方法来将情感分析和基于方面的情感分析合并。经过实验,本方法在标准基准测试中表现出优越的性能,超过了现有领先方法。
Mar, 2022
该文系统地综述了目前各种基于方面的情感分析(ABSA)任务及其解决方案,包括情感元素、预训练语言模型等。该文提出了一个新的 ABSA 分类表,并强调了近年来对多元素 ABSA 任务研究的重要性。同时,该文总结了预训练语言模型在 ABSA 中的应用,介绍了跨领域 / 跨语言情况下构建更实用的 ABSA 系统的技术,并讨论了 ABSA 未来发展的方向与挑战。
Mar, 2022