顽皮变压器:理解冒犯幽默
本文提出新的任务:判断一个笑话是否幽默,通过建立基于 Reddit 站点上近 16,000 标记实例的幽默评分模型,使用 Transformer 体系结构实现语句上下文的学习,取得了与人类表现可比较的成果,并在短笑话和双关语数据集上取得了 93.1% 和 98.6% 的 F-measure,这一方法超过了以前用于这些任务的所有先前工作。
Aug, 2019
本文描述了关于使用 AMTL-Humor 的对抗式多任务网络进行幽默和冒犯文本检测。训练模型包含多个分支,通过模型对 BiLSTM 和 Capsule 层进行训练并使用 BERTweet 生成上下文化嵌入。最终模型是所有测试配置的集合,并在 SemEval-2021 的 7 号任务中实现了 95.66%的 F1 得分和 94.70%的准确率,同时还针对 1b 和 2 号任务分别获得了 0.6200 和 0.5318 的 RMSE 分数。
Apr, 2021
研究了基于 Transformer 的 7 种模型在 NLP 和机器学习场景下的抽象到标题生成问题,并扩展到更难的生成幽默科学论文标题的问题。使用人类和自动度量衡方法评估了所有模型,发现最好的端到端系统与人类作者表现相似,而 ChatGPT 的表现不错。
Dec, 2022
本文探究了用于幽默识别的 transfer learning 方式 ——prompting 对于 NLP 系统的有效性,并通过应用 influence functions 观察了幽默与 offense 之间的关系。实验结果表明:在低资源的幽默识别任务中,prompting 具有出色的性能表现。
Oct, 2022
本篇论文探索了基于 Transformer 的多种机器学习模型,用于探测英语和印度 - 雅利安语中的仇恨言论和冒犯性内容,研究团队 “超级马里奥” 采用 mBERT、XLMR-large、XLMR-base 等多种模型,我们在 Code-Mixed 数据集排名第二(宏平均 F1:0.7107)、在印地语二分类中排名第二(宏平均 F1:0.7797)、在英语四分类中排名第四(宏平均 F1:0.8006),在英语二分类中排名第十二(宏平均 F1:0.6447)。
Nov, 2021
本文试图让 AI 模型 “展现出理解” 的《纽约客字幕比赛》中的多模态幽默,同时研究采用视觉与语言、或只采用语言作为输入的模型,并公开了包括图片的注释、实体、场景特殊之处和笑话解释的数据集和语料库。
Sep, 2022
社交媒体上冒犯内容的普遍存在是公司和政府组织越来越关注的问题。本研究提出了第一个具有编码器 - 解码器结构的预训练模型,用于冒犯语言识别,并在两个大型冒犯语言识别数据集(SOLID 和 CCTK)上训练。研究结果表明,预训练的 T5 模型在多个英文基准测试中优于其他基于变压器的模型,在多语言场景中,多语言预训练模型在所有上述数据集上实现了新的最优表现。
Dec, 2023
通过编辑文本,我们研究了大型语言模型(LLMs)是否能够生成用于幽默检测的合成数据。我们对现有的人类数据集进行了基准测试,并展示了当前的 LLMs 在判断幽默性和幽默检测的下游任务中,能够令人印象深刻地去除笑话。我们还将我们的方法扩展到了一个混合编码的英文 - 印地语幽默数据集,发现 GPT-4 的合成数据得到了双语注释者的高评价,并为幽默分类器提供了具有挑战性的对抗性例子。
Feb, 2024
本文介绍了我们对 SemEval-2022 任务 6:针对英语和阿拉伯语的讽刺检测及其五个子任务的参赛作品。我们使用基于 transformers 的深度学习技术来检测讽刺,数据集来自推特,数据预处理对于任务至关重要,我们的排名在四个子任务中保持稳定,这说明我们使用的模型和技术具有鲁棒性和稳定性。
Mar, 2022