多模态机器学习的仇恨言论检测
本文提出了首个多模式深度学习框架,将表达情感的音频特征与语义特征相结合,以检测有害的多媒体内容,包括暴力辱骂和冒犯性言论,结果表明,情感特征的结合可以明显提高系统的性能,同时我们也提出了一个新的有害言论检测视频数据集(HSDVD)以支持多模式学习。
Feb, 2022
本文旨在通过多模态深度学习模型来从 BitChute 这样的视频分享平台上检测和移除具有仇恨性质的视频内容,该方法采用图像、音频等多种模态分析,比单一模态的分类方法在准确率和 F1 得分等表现指标上有显著提升。
May, 2023
本文研究针对文本和图像组成的多模态出版物中仇恨言论的检测问题。 我们从 Twitter 收集和注释了大规模数据集 MMHS150K,并提出了不同的联合文本和视觉信息的模型用于比较仇恨言论检测中的单一模态检测,提供了定量和定性结果并分析了所提出任务的挑战。 我们发现,尽管图像对于仇恨言论检测任务很有用,但目前的多模态模型无法超越仅分析文本的模型。 我们讨论了原因并开放该领域和数据集以进行进一步研究。
Oct, 2019
本文探讨在 Facebook Meme Challenge 中通过多模型和目标检测、图像说明和情感分析等技术的结合来解决恶意文本与图像的混淆问题以提高分类准确性。
Dec, 2020
本篇论文旨在针对多种形式的恶意言论,特别是采用 Memes 表达的恶意言论开发一种新的多模态框架,该框架通过交叉验证的集成学习等增强措施,有效提高了已有多模态方法的性能,并在 Facebook 组织的 2020 年恶意 Memes 挑战的第二阶段中获得了 AUROC 评分 80.53,位列第四。
Dec, 2020
本文旨在探讨利用机器学习和自然语言处理技术,通过分析包含图像和文本的 Bengali 跨媒体互动,检测恶意言论。我们准备了一个新颖的数据集,并使用双向长短时记忆网络、卷积神经网络、ResNet-152、DenseNet-161、monolingual Bangla BERT、multilingual BERT-cased/uncased 和 XLM-RoBERTa 等多种模型进行了实验,其中 XLM-RoBERTa+DenseNet-161 模型的 F1 得分最高为 0.83。
Apr, 2022
该研究提出了一个新的挑战,针对多模态模因素进行分类,专注于检测多模态模因素中的仇恨言论,并构造了一个难以依靠单模态信号的数据集,要求进行微妙的推理,证明了该任务的难度,并强调这个重要问题对社会的挑战。
May, 2020
Hateful Memes Challenge 使用 VisualBERT 多模态训练进行恶意标记检测,在挑战测试集中取得了 0.811 AUROC 和 0.765 的准确率,获得了 3173 名参赛者中的第三名
Dec, 2020
本文提出了一种新的多模态方法,将图像字幕流程融合到恶意模因检测过程中,以提高其有效性,以在 Hateful Memes Detection Challenge 上取得了良好的结果。
Nov, 2020