多功能实证研究:GPT 在少样本的基于方面的情感分析中的应用
本文提出了一个统一的框架来解决基于方面的情感分析(ABSA)及其相关子任务,通过在多任务学习模式下使用 T5 模型,通过教学提示进行 fine-tuning,并在多个基准数据集上实现了表现提升(F1 绝对值增加了 6.75),特别是在少样本情况下。
Oct, 2022
本文介绍了一种可扩展到任何 ABSA 子任务的生成框架 PFInstruct,通过在任务描述中添加 NLP 相关任务前缀,相较于基准模型,在所测试的所有 SemEval 子任务中取得了更好的性能,并在 Rest14(ATE 子任务)上以 + 3.28 的 F1 分数和在 AOOE 子任务上平均 + 5.43 的 F1 分数超越了之前的最新结果,并且我们发现,即使存在噪声,前缀增强的提示质量也可以提高模型性能。同时,我们的方法在生物医学领域数据集(ERSA)上也取得了有竞争力的结果。
May, 2024
本文旨在通过将每个 ABSA 子任务目标重新定义为由指针索引和情感类别索引混合的序列,将 ABSA 的各个子任务转换为统一的生成式公式,并利用预训练序列到序列模型 BART 在端到端框架中解决所有 ABSA 子任务。实验结果表明,我们的框架在四个 ABSA 数据集上实现了实质性的性能收益,并为整个 ABSA 子任务提供了真正的统一端到端解决方案,这可使多个任务受益。
Jun, 2021
使用零痕迹、少痕迹和微调模型在纵向情感分析任务上评估了 GPT-4 和 GPT-3.5 的性能,结果显示微调的 GPT-3.5 在 SemEval-2014 任务 4 的联合方面术语提取和极性分类任务上获得了 83.8 的最优 F1 分数,比 InstructABSA 提高了 5.7%,但模型参数增加了 1000 倍,推理成本也增加了。我们讨论了不同模型的性价比和分析了它们的典型错误。同时,我们的研究结果表明,在零痕迹和少痕迹环境中,详细提示可以提高性能,但对于微调模型来说并非必要。这些证据对于在 ABSA 中使用 LLMs 时面临提示工程和微调选择的实践者具有相关性。
Oct, 2023
本文提出将基于方面的情感分析任务转变为使用目标、方面和极性生成辅助语句的抽象摘要式生成任务,在餐厅领域和城市社区领域基准数据集上 fine-tune 了一个预训练模型,获得了最新的最优结果。
Oct, 2021
本篇论文研究了使用预训练语言模型在情感分析任务,尤其是针对少量数据的方面 - 基础情感分析,提出了一种生成式语言模型来处理抽取方面、抽取类别、预测极性等任务,并证明了这种方法在多任务、少样本学习上比以前的方法有更好的表现。
Apr, 2022
本文介绍了基于深度学习模型 BERT 的两个模块 Parallel Aggregation 和 Hierarchical Aggregation, 用于 Aspect-Based Sentiment Analysis 中的 Aspect Extraction 和 Aspect Sentiment Classification, 改善了模型的性能。
Oct, 2020
本文介绍我们在 IberLEF 2022 的 Portuguese Aspect-Based Sentiment Analysis (ABSAPT) 2022 中参与并提交表现最佳的系统,取得了两个子任务的最新最佳结果。
Nov, 2023
本文研究了利用卷积神经网络和门机制的模型,提高方面基情感分析的准确性和效率。该模型的提出主要在于采用了 Gated Tanh-ReLU Units 来根据给定的方面或实体选择性地输出情感特征。实验结果显示其在 SemEval 数据集上的性能优越。
May, 2018
本文探讨了如何利用无标注数据的弱监督来提高方面情感分析(ABSA)任务在少量样本情况下的性能。我们提出了一种管道式方法来构建一个嘈杂的 ABSA 数据集,并利用它来使预训练序列到序列模型适应 ABSA 任务。我们将该方法在三个常用的 ABSA 数据集上进行了测试,在微调前后均保持了完全的微调性能,同时在较难的任务的少量样本(Few-shot learning)情况下显示出了显著的改进(15.84%绝对 F1)。在零样本(即没有微调)情况下,我们的方法在方面提取情感分类(AESC)任务上优于先前的最新技术,并且还能够执行更难的方面情感三元组提取(ASTE)任务。
May, 2023