EliXa: 一个模块化和灵活的 ABSA 平台
本文旨在通过将每个 ABSA 子任务目标重新定义为由指针索引和情感类别索引混合的序列,将 ABSA 的各个子任务转换为统一的生成式公式,并利用预训练序列到序列模型 BART 在端到端框架中解决所有 ABSA 子任务。实验结果表明,我们的框架在四个 ABSA 数据集上实现了实质性的性能收益,并为整个 ABSA 子任务提供了真正的统一端到端解决方案,这可使多个任务受益。
Jun, 2021
本文提出了一种基于互信息最大化的简单而有效的技术,用于增强任何类型的模型进行跨领域 ABSA 和 ATE,并分析了该方法。实验结果表明,我们提出的方法在 10 个不同领域对的跨领域 ABSA 平均 Micro-F1 上超过现有技术 4.32%。此外,我们的方法可以扩展到其他序列标记任务,例如命名实体识别(NER)。
Jan, 2022
我们提出了一种简单而新颖的无监督方法来从句子中提取观点词和相应的情感极性,以解决在缺乏标记数据集的低资源领域中泛化能力不足的问题。我们在四个基准数据集上进行的实验评估表明,我们的方法在提取面向方面的观点词以及分配情感极性方面具有强大的性能。另外,我们的工作还为无监督的观点词挖掘方法设立了一个基准。
Apr, 2024
本文介绍了一种可扩展到任何 ABSA 子任务的生成框架 PFInstruct,通过在任务描述中添加 NLP 相关任务前缀,相较于基准模型,在所测试的所有 SemEval 子任务中取得了更好的性能,并在 Rest14(ATE 子任务)上以 + 3.28 的 F1 分数和在 AOOE 子任务上平均 + 5.43 的 F1 分数超越了之前的最新结果,并且我们发现,即使存在噪声,前缀增强的提示质量也可以提高模型性能。同时,我们的方法在生物医学领域数据集(ERSA)上也取得了有竞争力的结果。
May, 2024
本研究针对情感分析在实际应用中的可靠性进行了探究,通过加强当前最佳的句法感知模型,并基于丰富的伪数据进行敌对训练,进一步提高了模型的鲁棒性。实验结果表明,所提出的方法比现有的基线模型的鲁棒性性能更好,同时合成语料库作为额外数据能够进一步提高测试准确性。
Apr, 2023
本文提出将基于方面的情感分析任务转变为使用目标、方面和极性生成辅助语句的抽象摘要式生成任务,在餐厅领域和城市社区领域基准数据集上 fine-tune 了一个预训练模型,获得了最新的最优结果。
Oct, 2021
本文介绍了基于深度学习模型 BERT 的两个模块 Parallel Aggregation 和 Hierarchical Aggregation, 用于 Aspect-Based Sentiment Analysis 中的 Aspect Extraction 和 Aspect Sentiment Classification, 改善了模型的性能。
Oct, 2020
本文提出了一个统一的框架来解决基于方面的情感分析(ABSA)及其相关子任务,通过在多任务学习模式下使用 T5 模型,通过教学提示进行 fine-tuning,并在多个基准数据集上实现了表现提升(F1 绝对值增加了 6.75),特别是在少样本情况下。
Oct, 2022
本研究使用 BERT 模型,将 ABSA 转换为句对分类任务,取得了 SentiHood 和 SemEval-2014 Task 4 数据集的最新最佳结果,旨在识别特定方面的细粒度观点极性。
Mar, 2019
本研究提出了一种名为对比后训练的自然语言推理方法,可以在没有人工注释数据的情况下,对新领域中针对方面的情感分析(ABSA)进行零 - shot 转移,并在多个 ABSA 任务中进行了评估。
Feb, 2022