RVISA: 隐式情感分析的推理与验证
本研究分析了不同情感分类模型在语法复杂的输入(如A但B句子)上的表现,发现使用ELMo嵌入取代逻辑规则可以显著提高情感分类性能,并展示了ELMo隐式学习逻辑规则的能力。
Aug, 2018
本研究提出了反事实推理模型,在学习少量反事实样本的基础上,通过生成对于每个正面事实样本的代表性反事实样本,并使用回顾模块根据对比反事实和正事实样本来检查模型预测,从而模拟对于困难测试样本的人类反事实思维。该方法在情感分析和自然语言推理方面的广泛实验验证了其有效性。
Jun, 2021
通过引入因果干预模型和工具变量方法所提出的因果干预隐含情感分析模型,消除了干扰性因素对句子情感之间的影响,从而提取出纯粹的因果效应,表明该模型在普遍隐含情感分析和基于方面的隐含情感分析任务中具有很大的优势和功效。
Aug, 2022
我们提出了InstructABSA,使用指令学习范式进行基于方面的情感分析,并在Aspect Term Extraction,Aspect Term Sentiment Classification和Joint Task构建的所有ABSA子任务上进行了表现显着的性能改进。
Feb, 2023
本文提出一种Three-hop Reasoning CoT Framework,用于处理隐含情感分析,它模拟了人类推理过程,利用多步提示逐步诱导潜在方面、意见和情感极性,并且在监督设置中的F1值超过了6%的state-of-the-art。而在零-shot 的情况下,THOR + GPT3(175B)将state-of-the-art的F1值提高了50%。
May, 2023
本文讨论了大型语言模型在情感分析任务中的有效性,对13项不同的任务进行了评估,在简单任务中表现良好,但在涉及更深层次理解和结构化情感信息方面仍有待提高;然而,在资源有限的情况下,大型语言模型表现出色,提供了潜在可能性。该研究提出了一个新的基准评估框架SentiEval。
May, 2023
情感分析是一项成熟的自然语言处理任务,其中情感极性分类是最受欢迎和代表性的任务之一。然而,尽管在这个领域预训练的语言模型取得了成功,但它们往往无法完全捕捉情感分析的更广泛复杂性。为了解决这个问题,我们提出了一项名为SOUL的新任务。SOUL通过两个子任务——评论理解和理由生成,旨在评估情感理解能力。评论理解旨在验证基于评论文本的主观信息的陈述,而理由生成要求模型为其情感预测提供解释。通过标注一个包含15,028个陈述的新数据集,综合评估的结果显示,SOUL对于小型和大型语言模型而言都是一项具有挑战性的任务,性能差距高达27%。此外,与人类专家和GPT-4进行的评估凸显了小型语言模型在生成基于推理的理由方面的局限性。这些发现突显了现有模型在SOUL任务上的挑战性质,强调了在情感分析中进一步提升以应对其复杂性的需求。新数据集和代码可在此URL上获得。
Oct, 2023
该论文介绍了一种用于情感分析的多LLM协商框架,其中包括一个推理注入生成器来提供决策及其理由,以及一个评估生成器可信度的解释推导鉴别器,通过迭代使生成器和鉴别器达成一致,从而解决了情感分析中的单一决策缺陷的问题。实验证明,该方法在各种情感分析基准上表现出更好的性能。
Nov, 2023
本论文提出了一种整合了明确情感增强的ABSA方法,通过基于规则的数据对T5进行后训练,并采用句法距离加权和不合理对比正则化来生成明确情感,同时利用约束束搜索确保增强句子包含方面术语,在ABSA两个最流行的基准测试中,ABSA-ESA在隐式和明确情绪准确性上优于SOTA基线。
Dec, 2023
我们提出了TRABSA,这是一个混合框架,整合了基于transformer的结构、注意机制和BiLSTM网络,用于情感分析。我们使用RoBERTa训练了124M条推文,填补了情感分析基准的差距,确保了最先进的准确性,并通过在32个国家和美国各州的推文数据集上做实验,比较了六种单词嵌入技术和三种基于词汇的标记技术,选出了最佳组合以实现最佳情感分析。TRABSA以94%的准确率优于传统机器学习和深度学习模型,并在精确率、召回率和F1得分方面取得了显著的提升。对多样化数据集的评估证明了其持续的优越性和泛化能力。SHAP和LIME分析提升了解释性,增强了对预测的信心。我们的研究有助于疫情资源管理,促进资源规划、政策制定和疫苗策略。
Mar, 2024