对代码混合的厌女言论进行的探索性数据分析
本文介绍了一个多语言标注的数据集,包含了印度英语,印地语和孟加拉语中的仇恨言论和攻击言论,并描述了数据收集和标注过程中的问题和挑战以及最终实验结果。
Mar, 2020
本文主要基于八项伦理原则,即:隐私、问责、安全、可透明、公平和非歧视、技术的人类控制、专业责任、人权的促进,回顾了基于自然语言处理(NLP)的网络滥用内容检测的研究,并提出了权利尊重的社会技术解决方案来检测和对抗线上滥用。
Dec, 2020
在线性别暴力与互联网和社交媒体的采用同时增长。它在全球多数国家尤其严重,因为许多用户使用的社交媒体语言不是英语。由于互联网上对话的规模和数量,需要自动检测仇恨言论,尤其是性别虐待。然而,目前缺乏特定语言和语境数据来构建这样的自动化工具。本文介绍了一个关于三种语言 (印地语、泰米尔语和印度英语) 中性别虐待的数据集。该数据集包括在南亚的自称是妇女或 LGBTQIA 群体成员的专家标注的推文,涉及到性别虐待的经历的三个问题。通过这个数据集,我们展示了一种参与性的方法来创建推动 AI 系统的数据集。
Nov, 2023
基于自然语言处理和人工智能的反性别歧视警报系统可分析任何公共帖子,判断是否为性别歧视评论,提供类似于交通灯的颜色系统来判断整体帖子中是否存在性别歧视,该系统在西班牙语标记数据集上训练,并取得了很好的性能表现。
Nov, 2023
社交媒体上有毒内容的普及,如仇恨言论、冒犯性语言和厌女症,已经引起了自然语言处理领域的广泛关注。本文介绍了首个阿拉伯语厌女症识别任务的提交系统,并研究了基于预训练 MARBERT 语言模型的多任务学习模型和单任务对应模型。而所有提交的模型在厌女症识别和分类任务中都取得了最佳表现(排名前三)。
Jun, 2022
本文介绍了一种使用多个标签注释恶意在线言论的方法,强调了注释应该是细致、准确的。作者发布了一个高质量的数据集,使用六个标签注释了超过 40,000 条有关移民的推文,在此数据集上训练模型的表现优于基准数据集。
Oct, 2022
采用大语言模型(LLMs)进行很少标记的训练,结合零样本学习和少样本学习等方法,成功应用于 Hinglish 中的仇恨言论检测和粗细粒度的厌女症分类,研究表明使用 Bidirectional Auto-Regressive Transformers(BART)大模型的零样本分类和使用 Generative Pre-trained Transformer- 3(ChatGPT-3)的少样本提示获得了最佳结果。
Mar, 2024
使用新颖的数据集开发方法,Biasly 数据集以与文献中独特的方式捕捉了对女性的厌恶的微妙之处。与多领域专家和标注员合作构建的数据集包含了电影字幕的标注,捕捉了北美电影中的口语表达对女性的厌恶。该数据集可用于各种 NLP 任务,包括分类、严重程度评分回归和文本重写的生成。在本文中,我们讨论了所使用的方法学,分析了获得的标注,并在对女性厌恶检测和缓解的背景下使用常见的 NLP 算法提供了基线。我们希望这项工作能促进 AI 在 NLP 中的社会价值,用于偏见检测、解释和消除。
Nov, 2023
本研究通过对 Twitter 数据集进行分类,发现算法对于辱骂言论和仇恨言论的判别对非裔美国人和非裔男性的偏见较强,这提供了有关算法数据集中交叉偏见的首个系统性证据。
May, 2020
本文研究了在 Twitter 上关于仇恨言论和辱骂的数据集,考察了不同的学习模型和额外特征的加入,并得出了使用双向 GRU 网络结合潜在主题聚类模型的最优模型,F1 得分为 0.805。
Aug, 2018