零样本基于方面的情感分析
本文提出了一种基于互信息最大化的简单而有效的技术,用于增强任何类型的模型进行跨领域 ABSA 和 ATE,并分析了该方法。实验结果表明,我们提出的方法在 10 个不同领域对的跨领域 ABSA 平均 Micro-F1 上超过现有技术 4.32%。此外,我们的方法可以扩展到其他序列标记任务,例如命名实体识别(NER)。
Jan, 2022
该研究提供了一个数据库的语料库被用于训练和评估自主 ABSA 系统,对于研究人员选择语料库时应考虑的一些特点进行了概述,分析了目前的收集方法的利弊,并建议未来 ABSA 数据集收集,在 65 个公开可用的 ABSA 数据集上进行了调查。
Apr, 2022
本文提出了一个统一的框架来解决基于方面的情感分析(ABSA)及其相关子任务,通过在多任务学习模式下使用 T5 模型,通过教学提示进行 fine-tuning,并在多个基准数据集上实现了表现提升(F1 绝对值增加了 6.75),特别是在少样本情况下。
Oct, 2022
本研究针对情感分析在实际应用中的可靠性进行了探究,通过加强当前最佳的句法感知模型,并基于丰富的伪数据进行敌对训练,进一步提高了模型的鲁棒性。实验结果表明,所提出的方法比现有的基线模型的鲁棒性性能更好,同时合成语料库作为额外数据能够进一步提高测试准确性。
Apr, 2023
本文探讨了如何利用无标注数据的弱监督来提高方面情感分析(ABSA)任务在少量样本情况下的性能。我们提出了一种管道式方法来构建一个嘈杂的 ABSA 数据集,并利用它来使预训练序列到序列模型适应 ABSA 任务。我们将该方法在三个常用的 ABSA 数据集上进行了测试,在微调前后均保持了完全的微调性能,同时在较难的任务的少量样本(Few-shot learning)情况下显示出了显著的改进(15.84%绝对 F1)。在零样本(即没有微调)情况下,我们的方法在方面提取情感分类(AESC)任务上优于先前的最新技术,并且还能够执行更难的方面情感三元组提取(ASTE)任务。
May, 2023
本论文提出了一种整合了明确情感增强的 ABSA 方法,通过基于规则的数据对 T5 进行后训练,并采用句法距离加权和不合理对比正则化来生成明确情感,同时利用约束束搜索确保增强句子包含方面术语,在 ABSA 两个最流行的基准测试中,ABSA-ESA 在隐式和明确情绪准确性上优于 SOTA 基线。
Dec, 2023
本文介绍了一种可扩展到任何 ABSA 子任务的生成框架 PFInstruct,通过在任务描述中添加 NLP 相关任务前缀,相较于基准模型,在所测试的所有 SemEval 子任务中取得了更好的性能,并在 Rest14(ATE 子任务)上以 + 3.28 的 F1 分数和在 AOOE 子任务上平均 + 5.43 的 F1 分数超越了之前的最新结果,并且我们发现,即使存在噪声,前缀增强的提示质量也可以提高模型性能。同时,我们的方法在生物医学领域数据集(ERSA)上也取得了有竞争力的结果。
May, 2024
该论文通过系统文献综述方法对 Aspect-based Sentiment Analysis (ABSA) 研究进行了研究领域、数据集领域和研究方法的分析,揭示了 ABSA 研究文献中存在的一些系统性问题,并提出了一些建议。
Nov, 2023
本研究提出了一种基于句法导向域自适应模型的新颖跨领域 ABSA 方法,该方法利用句法结构相似性构建伪训练实例,同时引入一种基于句法的 BERT 掩码语言模型以进一步捕获领域不变特征;最后,为了减轻跨领域 End2End ABSA 中的情感不一致问题,引入了基于跨度的联合方面和情感模块。在五个基准数据集上的实验结果表明,与现有模型相比,我们的模型在跨领域 End2End ABSA 任务的微 F1 指标方面始终表现出色。
Nov, 2022
基于 VAE 的主题建模方法,利用文档级别的监督,在不需要精细标注方面或情感方面的标签的情况下完成 ABSA,能够检测文档中的多个方面,从而合理推测多个方面的情感是如何融合形成可观察的整体文档级情感的。通过对两个不同领域的基准数据集的实验结果证明,该方法显著优于最先进的基准模型。
Oct, 2023