恶毒模因挑战下一步
该研究提出了一个新的挑战,针对多模态模因素进行分类,专注于检测多模态模因素中的仇恨言论,并构造了一个难以依靠单模态信号的数据集,要求进行微妙的推理,证明了该任务的难度,并强调这个重要问题对社会的挑战。
May, 2020
本文探讨在 Facebook Meme Challenge 中通过多模型和目标检测、图像说明和情感分析等技术的结合来解决恶意文本与图像的混淆问题以提高分类准确性。
Dec, 2020
本文提出了一种新的多模态方法,将图像字幕流程融合到恶意模因检测过程中,以提高其有效性,以在 Hateful Memes Detection Challenge 上取得了良好的结果。
Nov, 2020
本文介绍了一种利用图像字幕工具引入自动字幕以模拟图像内容和遮盖文本间的对比,在处理讨论是否具有仇恨色彩的 “违反社交规范” 的表情包挑战中,可以改进单模型和多模型。同时,在处理单模型中,继续在增强和原始字幕对上进行预训练,对于分类准确性有很大的益处。
Sep, 2021
Hateful Memes Challenge 使用 VisualBERT 多模态训练进行恶意标记检测,在挑战测试集中取得了 0.811 AUROC 和 0.765 的准确率,获得了 3173 名参赛者中的第三名
Dec, 2020
本篇研究提出一种多模态半监督学习方法,可用于探测社交媒体上的恶意图片,该方法结合了自动编码器和分类任务,通过 Contrastive Language-Image Pre-training 实现。在两个数据集上,该方法表现优于其他多模态半监督学习和有监督学习的现有模型。
Mar, 2023
本篇论文旨在针对多种形式的恶意言论,特别是采用 Memes 表达的恶意言论开发一种新的多模态框架,该框架通过交叉验证的集成学习等增强措施,有效提高了已有多模态方法的性能,并在 Facebook 组织的 2020 年恶意 Memes 挑战的第二阶段中获得了 AUROC 评分 80.53,位列第四。
Dec, 2020
提出一种基于简单 Prompt 的预训练语言模型的分类方法,以解决针对具有文化背景的恶意表情包分类任务中,缺乏外部知识库提供文化信息的问题,并在两个公开的恶毒和冒犯表情包数据集上进行实验,其实验结果表明,PromptHate 能够实现高达 90.96 的 AUC,优于同类任务的最佳性能。
Feb, 2023
本文针对当前因网络平台被用于地缘政治事件和社会问题而使得互联网谣言的信息审核变得更加困难,旨在设计实现一个多模态分类方法,利用文本和图像来识别有害的网络谣言,通过举例和原型推理比较示范算法之间的性能差异,为社区提供启发,同时设计一种用户友好的界面以方便对比分析结果。
Dec, 2022
借助图像和文本数据的非模态(仅图像和仅文本)的情感标记数据,提出了一种针对多模态网络迷因的分类器的监督中间训练的新方法,并证明了在模型性能不降低的情况下能够减少 40% 的已标记迷因训练集。
Aug, 2023