本文提出一种模型,使用预训练的转换器和 CNN 捕捉上下文特征,用于捕捉蕴含在讽刺中的不一致性,并在社交网络平台和在线媒体的四个数据集上优于以前的最新成果。
Nov, 2022
本论文旨在探讨情感分类和讽刺检测两个 NLP 任务之间的相关性,并提出了一种基于多任务学习的深度神经网络框架来模拟这种相关性,以改善这两个任务的性能。在基准数据集中,我们的方法比现有技术的表现提高了 3-4%。
Jan, 2019
通过基于预训练的卷积神经网络提取情感,情绪和人格特征以及网络的基本特征,我们开发的模型可以有效区分讽刺语句并解决分类新数据的普适性问题。
Oct, 2016
研究发现,找出人们的反讽和言语讽刺对于理解他们的实际情感和信仰至关重要。因此,反讽分析已成为自然语言处理中一个热门的研究问题。本文作为 FigLang2020 会议的一部分,介绍了一个 sarcasm detection 共享任务,旨在进行基准研究,以分析最先进的技术,推动该领域的进展。
May, 2020
本文介绍一种基于概率建模的新颖方法,通过使用人类讽刺基准对神经网络进行训练,识别、分类和学习讽刺文本的特征,并建立一个对细微差异敏感的情感分析模式,以实现更自然、更吸引人的对话系统。
Nov, 2017
使用先进的语言表示模型和上下文驱动模型,对 Reddit 语料库进行分析,评估其性能并找到理想的讽刺检测方法。
Oct, 2023
本文提出了一种基于无监督思想,在非讽刺性的输入句子上生成讽刺的方法,使用 retrieve-and-edit 框架,结合反义和上下文语义不协调与常识知识相结合,其生成的讽刺质量高于人类注释和基线模型。
Apr, 2020
通过引入新的由新闻头条数据集组成的数据集,以及使用子神经网络和注意机制,本论文提出了一种有效识别铁 y 定义类的方法,其在分类精度方面优于基准线约 5%。
Aug, 2019
本文汇总了过去的研究成果,讨论了自动讽刺检测的数据集、方法、趋势和问题,并呈现了过去有关特征、注释技术和数据形式等不同方面的论文总结表格。关键技术包括半监督模式提取、基于标签的监督以及针对目标文本进行的上下文分析。
Feb, 2016
本文使用 RoBERTa_large 对 Twitter 和 Reddit 数据集进行讽刺检测,并通过使用三种不同类型的输入来确定上下文在提高性能方面的重要性。我们表明,我们提出的架构在两个数据集中都具有竞争力,并且在 Reddit 数据集中增加分隔符可以提高 F1 分数的 5.13%。
Jun, 2020