大型语言模型中的讽刺检测是一种逐步推理过程吗?
该研究通过研究社交媒体讨论发现,长短时记忆神经网络(LSTM)的不同类型能够更好地模拟讨论的背景并更好地识别出含有讽刺意味的回复,进一步使用定性分析方法研究LSTM模型的注意力加权效果。
Jul, 2017
本文介绍一种基于概率建模的新颖方法,通过使用人类讽刺基准对神经网络进行训练,识别、分类和学习讽刺文本的特征,并建立一个对细微差异敏感的情感分析模式,以实现更自然、更吸引人的对话系统。
Nov, 2017
研究了在社交媒体中检测讽刺语境下的对话背景、LSTM网络、不同平台之间差异对结果的影响以及定位句子语气的研究,通过定量分析和注意力机制判别出实验结果优于人工标注。
Aug, 2018
研究发现,找出人们的反讽和言语讽刺对于理解他们的实际情感和信仰至关重要。因此,反讽分析已成为自然语言处理中一个热门的研究问题。本文作为FigLang2020会议的一部分,介绍了一个sarcasm detection共享任务,旨在进行基准研究,以分析最先进的技术,推动该领域的进展。
May, 2020
本文提出了一项新的任务——对话中的讽刺解释,并针对多模态和混合编码的情境,提出了一种多模态上下文感知的关注和全局信息融合模块MAF来捕捉多模态,并使用其来支持我们的任务。
Mar, 2022
本文介绍了使用MOSES模型对于含有讽刺言语的对话进行Sarcasm Explanation,以及在此基础上实现的Sarcasm detection, humour identification, 和 emotion recognition等自然语言理解任务,并且通过各种评估指标展示了该模型的优越性。
Nov, 2022
通过整合多种上下文,本研究探索了现有方法在讽刺识别中的改进,并在三个讽刺识别基准测试中取得了最先进的性能,并展示了添加更多上下文的好处,同时也指出使用更多上下文可能引入社会偏见的固有缺点。
Mar, 2024
本研究关注大型语言模型(LLMs)在讽刺理解方面的不足,指出现有模型在这一领域的表现远低于最新的预训练语言模型(PLMs)。研究发现,尽管GPT-4在多种提示方法中表现优异,整体上仍需对LLMs进行显著改进,以增强其对人类讽刺的理解能力。
Aug, 2024
本研究聚焦于大型语言模型(LLMs)在讽刺理解方面的不足,制定了针对讽刺检测的基准评估。通过对当前顶尖的LLMs和预训练语言模型的比较,发现现有LLMs在讽刺检测上的表现低于监督学习的基准,尤其是在少量样本提示下,其表现优于其他方法,指出了提升LLMs理解人类讽刺能力的必要性。
Aug, 2024