利用 BERT 进行端到端方面情感分析
本文介绍了基于深度学习模型 BERT 的两个模块 Parallel Aggregation 和 Hierarchical Aggregation, 用于 Aspect-Based Sentiment Analysis 中的 Aspect Extraction 和 Aspect Sentiment Classification, 改善了模型的性能。
Oct, 2020
本文分析了 BERT 上预先训练的隐藏表示,用于方面为基础的情感分析(ABSA)任务。作者发现,BERT 使用非常少的自我关注头来编码上下文单词和方面的意见词。大多数方面的表示特征都专注于领域(或产品类别)和方面本身的细粒度语义,而不是携带其上下文中的总结性观点。
Oct, 2020
本研究使用 BERT 模型,将 ABSA 转换为句对分类任务,取得了 SentiHood 和 SemEval-2014 Task 4 数据集的最新最佳结果,旨在识别特定方面的细粒度观点极性。
Mar, 2019
本文提出了一种基于辅助句子和 BERT-ASC 的方法,来解决在缺乏标注数据的情况下,针对文本中暗含的方面进行情感分析和分类的问题,并在真实数据集上进行了有效性验证和性能评估。
Mar, 2022
本文通过整合 DeBERTa 模型和 Local Context Focus 机制提出了一个多任务学习模型,来解决基于方面的情感分析问题,在 SemEval-2014 以及 ACL Twitter 数据集上取得了显著的进步。
Jul, 2022
本文提出了一种利用句子中有关方面的辅助句子来帮助情感预测的方法,该方法包括使用多方面检测模型进行方面检测,并将预测出的方面与原始句子组合作为情感分析模型的输入,并通过训练情感分类模型进行领域外的基于方面的情感分析。最终,我们对两个基准模型和我们的方法进行对比,发现我们的方法确实有意义。
Jan, 2022
本文提出了一系列方法,旨在通过利用语义角色标记(SRL)模型中提取的语义信息,提高基于方面的情感分析(ABSA)的性能。我们提出了一种新颖的端到端语义角色标记模型,有效地捕捉了 Transformer 隐藏状态中的大部分结构化语义信息。我们相信,这种端到端模型非常适合我们的新提出的模型,可以将语义信息整合进去。我们使用 ELECTRA-small 模型在英语和捷克语两种语言中评估了提出的模型。我们的组合模型在两种语言中都提高了 ABSA 的性能。此外,我们在捷克 ABSA 领域取得了新的最先进结果。
Jul, 2023
本研究针对情感分析在实际应用中的可靠性进行了探究,通过加强当前最佳的句法感知模型,并基于丰富的伪数据进行敌对训练,进一步提高了模型的鲁棒性。实验结果表明,所提出的方法比现有的基线模型的鲁棒性性能更好,同时合成语料库作为额外数据能够进一步提高测试准确性。
Apr, 2023
本文提出了一种利用 Dynamic Re-weighting BERT 来学习 aspect-oriented semantics 从而预测句子中特定方面的情感极性的方法,实验结果表明该模型对于未来的语义建模具有可解释性的洞见。
Mar, 2022