使用 BERT 进行基于方面的情感分析的对抗式训练
本研究使用 BERT 模型,将 ABSA 转换为句对分类任务,取得了 SentiHood 和 SemEval-2014 Task 4 数据集的最新最佳结果,旨在识别特定方面的细粒度观点极性。
Mar, 2019
本文介绍了基于深度学习模型 BERT 的两个模块 Parallel Aggregation 和 Hierarchical Aggregation, 用于 Aspect-Based Sentiment Analysis 中的 Aspect Extraction 和 Aspect Sentiment Classification, 改善了模型的性能。
Oct, 2020
本文提出了一种基于辅助句子和 BERT-ASC 的方法,来解决在缺乏标注数据的情况下,针对文本中暗含的方面进行情感分析和分类的问题,并在真实数据集上进行了有效性验证和性能评估。
Mar, 2022
本研究针对情感分析在实际应用中的可靠性进行了探究,通过加强当前最佳的句法感知模型,并基于丰富的伪数据进行敌对训练,进一步提高了模型的鲁棒性。实验结果表明,所提出的方法比现有的基线模型的鲁棒性性能更好,同时合成语料库作为额外数据能够进一步提高测试准确性。
Apr, 2023
本文探讨了预训练语言模型中上下文化嵌入的建模能力,并使用简单明了的神经基线处理端到端方面的情感分析任务。实验结果表明,即使使用简单的线性分类层,我们基于 BERT 的架构的性能也能超过最新的方法。此外,我们还使用保留验证数据集来标准化比较研究,这是之前的工作往往忽略的,因此,我们的工作可以作为 E2E-ABSA 的 BERT 基准。
Oct, 2019
提出一种采用反事实数据增强方法,针对情感分析任务中球面情感倾向分析的问题,该方法利用集成梯度计算和蒙版技术对情感表达式进行反转,并通过一个 T5 预训练语言模型进行预测,在三个开源数据集上获得更好的结果。
Jun, 2023
本文分析了 BERT 上预先训练的隐藏表示,用于方面为基础的情感分析(ABSA)任务。作者发现,BERT 使用非常少的自我关注头来编码上下文单词和方面的意见词。大多数方面的表示特征都专注于领域(或产品类别)和方面本身的细粒度语义,而不是携带其上下文中的总结性观点。
Oct, 2020
本文提出将基于方面的情感分析任务转变为使用目标、方面和极性生成辅助语句的抽象摘要式生成任务,在餐厅领域和城市社区领域基准数据集上 fine-tune 了一个预训练模型,获得了最新的最优结果。
Oct, 2021
本文通过整合 DeBERTa 模型和 Local Context Focus 机制提出了一个多任务学习模型,来解决基于方面的情感分析问题,在 SemEval-2014 以及 ACL Twitter 数据集上取得了显著的进步。
Jul, 2022
本文提出了一种简单而有效的方法来完善现有的 ABSA 测试集,生成了一个名为 ARTS 的测试集,以全面探究 ABSA 模型的鲁棒性。研究发现,9 种 ABSA 模型的准确率最多下降了 69.73%,然而,采用对抗训练可以使模型在 ARTS 上的表现提高达 32.85%。
Sep, 2020