BERT-ASC: 基于辅助句构建的隐式方面表示学习在情感分析中的应用
本研究使用 BERT 模型,将 ABSA 转换为句对分类任务,取得了 SentiHood 和 SemEval-2014 Task 4 数据集的最新最佳结果,旨在识别特定方面的细粒度观点极性。
Mar, 2019
本文介绍了基于深度学习模型 BERT 的两个模块 Parallel Aggregation 和 Hierarchical Aggregation, 用于 Aspect-Based Sentiment Analysis 中的 Aspect Extraction 和 Aspect Sentiment Classification, 改善了模型的性能。
Oct, 2020
本论文提出了一种整合了明确情感增强的 ABSA 方法,通过基于规则的数据对 T5 进行后训练,并采用句法距离加权和不合理对比正则化来生成明确情感,同时利用约束束搜索确保增强句子包含方面术语,在 ABSA 两个最流行的基准测试中,ABSA-ESA 在隐式和明确情绪准确性上优于 SOTA 基线。
Dec, 2023
本文分析了 BERT 上预先训练的隐藏表示,用于方面为基础的情感分析(ABSA)任务。作者发现,BERT 使用非常少的自我关注头来编码上下文单词和方面的意见词。大多数方面的表示特征都专注于领域(或产品类别)和方面本身的细粒度语义,而不是携带其上下文中的总结性观点。
Oct, 2020
本文提出了一种利用句子中有关方面的辅助句子来帮助情感预测的方法,该方法包括使用多方面检测模型进行方面检测,并将预测出的方面与原始句子组合作为情感分析模型的输入,并通过训练情感分类模型进行领域外的基于方面的情感分析。最终,我们对两个基准模型和我们的方法进行对比,发现我们的方法确实有意义。
Jan, 2022
本文提出了一种基于 BERT-MRC 模型的联合训练框架,通过解决 aspect term extraction、opinion term extraction 和 aspect-level sentiment classification 等问题,实现了 Aspect based sentiment analysis,取得了显著的实验效果成果。
Jan, 2021
本文旨在通过将每个 ABSA 子任务目标重新定义为由指针索引和情感类别索引混合的序列,将 ABSA 的各个子任务转换为统一的生成式公式,并利用预训练序列到序列模型 BART 在端到端框架中解决所有 ABSA 子任务。实验结果表明,我们的框架在四个 ABSA 数据集上实现了实质性的性能收益,并为整个 ABSA 子任务提供了真正的统一端到端解决方案,这可使多个任务受益。
Jun, 2021
本文介绍了一种可扩展到任何 ABSA 子任务的生成框架 PFInstruct,通过在任务描述中添加 NLP 相关任务前缀,相较于基准模型,在所测试的所有 SemEval 子任务中取得了更好的性能,并在 Rest14(ATE 子任务)上以 + 3.28 的 F1 分数和在 AOOE 子任务上平均 + 5.43 的 F1 分数超越了之前的最新结果,并且我们发现,即使存在噪声,前缀增强的提示质量也可以提高模型性能。同时,我们的方法在生物医学领域数据集(ERSA)上也取得了有竞争力的结果。
May, 2024
本文提出将基于方面的情感分析任务转变为使用目标、方面和极性生成辅助语句的抽象摘要式生成任务,在餐厅领域和城市社区领域基准数据集上 fine-tune 了一个预训练模型,获得了最新的最优结果。
Oct, 2021
本研究针对情感分析在实际应用中的可靠性进行了探究,通过加强当前最佳的句法感知模型,并基于丰富的伪数据进行敌对训练,进一步提高了模型的鲁棒性。实验结果表明,所提出的方法比现有的基线模型的鲁棒性性能更好,同时合成语料库作为额外数据能够进一步提高测试准确性。
Apr, 2023