创建图像和文本混合数据集以研究辱骂语言
本文研究针对文本和图像组成的多模态出版物中仇恨言论的检测问题。 我们从 Twitter 收集和注释了大规模数据集 MMHS150K,并提出了不同的联合文本和视觉信息的模型用于比较仇恨言论检测中的单一模态检测,提供了定量和定性结果并分析了所提出任务的挑战。 我们发现,尽管图像对于仇恨言论检测任务很有用,但目前的多模态模型无法超越仅分析文本的模型。 我们讨论了原因并开放该领域和数据集以进行进一步研究。
Oct, 2019
本文提出了一种注重异质性的辱骂评论的检测算法,使用带监督的注意机制和多任务学习来提高性能,并在一个包含 11000 条评论的 YouTube 数据集上进行了实验比较。
May, 2021
本文旨在通过多模态深度学习模型来从 BitChute 这样的视频分享平台上检测和移除具有仇恨性质的视频内容,该方法采用图像、音频等多种模态分析,比单一模态的分类方法在准确率和 F1 得分等表现指标上有显著提升。
May, 2023
本文提出了首个多模式深度学习框架,将表达情感的音频特征与语义特征相结合,以检测有害的多媒体内容,包括暴力辱骂和冒犯性言论,结果表明,情感特征的结合可以明显提高系统的性能,同时我们也提出了一个新的有害言论检测视频数据集(HSDVD)以支持多模式学习。
Feb, 2022
本文提出了一种两步法的方法,使用现有的包含多种任务相关的虐待性语言检测数据集进行多任务学习,再进行少量的适应性训练以针对新的标签集或语言。实验结果表明这种方法可以提高模型的性能,并且可以在不同语言中实现跨语言识别。
May, 2023
本文介绍了一种使用多个标签注释恶意在线言论的方法,强调了注释应该是细致、准确的。作者发布了一个高质量的数据集,使用六个标签注释了超过 40,000 条有关移民的推文,在此数据集上训练模型的表现优于基准数据集。
Oct, 2022
本篇论文旨在针对多种形式的恶意言论,特别是采用 Memes 表达的恶意言论开发一种新的多模态框架,该框架通过交叉验证的集成学习等增强措施,有效提高了已有多模态方法的性能,并在 Facebook 组织的 2020 年恶意 Memes 挑战的第二阶段中获得了 AUROC 评分 80.53,位列第四。
Dec, 2020
本文报道了一个规模为 400M 的过滤了不良内容的图像 - alt 文本数据集,该数据集在生成大规模机器学习模型时可能存在的问题和潜在涉及的利益攸关者(包括 AI 社区、监管机构、政策制定者和数据主体)的问题。
Oct, 2021
在线性别暴力与互联网和社交媒体的采用同时增长。它在全球多数国家尤其严重,因为许多用户使用的社交媒体语言不是英语。由于互联网上对话的规模和数量,需要自动检测仇恨言论,尤其是性别虐待。然而,目前缺乏特定语言和语境数据来构建这样的自动化工具。本文介绍了一个关于三种语言 (印地语、泰米尔语和印度英语) 中性别虐待的数据集。该数据集包括在南亚的自称是妇女或 LGBTQIA 群体成员的专家标注的推文,涉及到性别虐待的经历的三个问题。通过这个数据集,我们展示了一种参与性的方法来创建推动 AI 系统的数据集。
Nov, 2023
本研究通过多角度标注刻画线上辱骂现象,采用可感知群体视角的深度学习模型,提出构建多个黄金标准资源,最终在集成后能有效提高现有监督分类器的准确性。
Jun, 2021