通过丰富的字幕样本,提升仇恨模因检测
本文提出了一种新的多模态方法,将图像字幕流程融合到恶意模因检测过程中,以提高其有效性,以在 Hateful Memes Detection Challenge 上取得了良好的结果。
Nov, 2020
本篇论文旨在针对多种形式的恶意言论,特别是采用 Memes 表达的恶意言论开发一种新的多模态框架,该框架通过交叉验证的集成学习等增强措施,有效提高了已有多模态方法的性能,并在 Facebook 组织的 2020 年恶意 Memes 挑战的第二阶段中获得了 AUROC 评分 80.53,位列第四。
Dec, 2020
本文探讨在 Facebook Meme Challenge 中通过多模型和目标检测、图像说明和情感分析等技术的结合来解决恶意文本与图像的混淆问题以提高分类准确性。
Dec, 2020
该研究提出了一个新的挑战,针对多模态模因素进行分类,专注于检测多模态模因素中的仇恨言论,并构造了一个难以依靠单模态信号的数据集,要求进行微妙的推理,证明了该任务的难度,并强调这个重要问题对社会的挑战。
May, 2020
Hateful Memes Challenge 使用 VisualBERT 多模态训练进行恶意标记检测,在挑战测试集中取得了 0.811 AUROC 和 0.765 的准确率,获得了 3173 名参赛者中的第三名
Dec, 2020
社交媒体上传播仇恨的行为越来越多,其中包括使用多模态方式的恶意内容,容易被现有的检测系统所规避。本文通过对现有系统进行外部对抗攻击,检验了其脆弱性,并提出了使用对比学习和基于对抗训练的方法来提高鲁棒性。实验结果表明,使用这两种方法可以在某些攻击下重获性能。
Feb, 2023
使用 Probing-Based Captioning 方法,通过向一个冻结的 PVLM 提问来生成图像标题,以解决令人讨厌的模因检测任务中的非信息性图像标题的问题,该方法在三个基准测试上验证了其有效性和泛化性。
Aug, 2023
本研究提出了一种名为 ISSUES 的新方法,利用预训练的 CLIP 视觉 - 语言模型和文本反转技术来有效捕捉多模态恶意网络迷因的语义内容,实现了在 Hateful Memes Challenge 和 HarMeme 数据集上最先进的结果。
Oct, 2023
通过相关证据,该研究论文探讨了多模态仇恨迷因检测中跨领域泛化的巨大挑战,并发现只有具有仇恨性质的迷因的文本组成部分能够使现有的多模态分类器在不同领域中泛化,而图像组成部分对特定的训练数据集非常敏感。同时,研究通过黑盒解释,确定了文本模态的重要贡献程度为 83%,而引入迷因图像标题后该贡献程度减少至 52%。另外,对新创建的混淆数据集进行的评估显示,与图像混淆因素相比,文本混淆因素具有更高的性能,平均 ΔF1 为 0.18。
Feb, 2024