2023 年 ICON 共享任务概述:印度语中性别虐待检测
在线性别基础骚扰是限制女性和边缘性别在数字空间中自由表达和参与的普遍问题。检测此类滥用内容可以使平台遏制这一威胁。我们参加了 ICON2023 举办的 Indic 语言中的性别虐待检测任务,该任务为构建分类器以识别带有性别偏见的滥用提供了英语、印地语和泰米尔语的注释 Twitter 帖子的数据集。我们的团队 CNLP-NITS-PP 开发了结合 CNN 和 BiLSTM 网络的集成方法,可以有效地建模文本数据中的语义和顺序模式。CNN 通过其应用于嵌入式输入文本的卷积滤波器捕捉到暴力语言的局部特征。为了确定基于上下文的冒犯性,BiLSTM 分析这个序列中单词和短语之间的依赖关系。我们为每种语言数据集训练了使用 FastText 和 GloVe 词嵌入的多种变体,其中包括超过 7600 个众包注释,涵盖了明确的滥用、针对少数群体的攻击和一般违规事项的标签。验证分数显示出强大的性能,特别是对于英语为 0.84。我们的实验证明了如何通过自定义嵌入和模型超参数来提高检测能力。该提议的架构在比赛中排名第一,证明其处理具有代码切换的现实世界嘈杂文本的能力。随着平台力图应对面临 Indic 语言互联网用户的网络骚扰,这种技术有着广阔的前景。我们的代码位于此 https URL。
Apr, 2024
该研究论文介绍了 HASOC 子轨道,旨在为英语、印地语和马拉地语开发基准数据集,以支持在线平台的内容审核。他们解释了两种分析方法,分别为二元分类和精细分类问题,并提供分类算法的性能结果。
Dec, 2021
在线性别暴力与互联网和社交媒体的采用同时增长。它在全球多数国家尤其严重,因为许多用户使用的社交媒体语言不是英语。由于互联网上对话的规模和数量,需要自动检测仇恨言论,尤其是性别虐待。然而,目前缺乏特定语言和语境数据来构建这样的自动化工具。本文介绍了一个关于三种语言 (印地语、泰米尔语和印度英语) 中性别虐待的数据集。该数据集包括在南亚的自称是妇女或 LGBTQIA 群体成员的专家标注的推文,涉及到性别虐待的经历的三个问题。通过这个数据集,我们展示了一种参与性的方法来创建推动 AI 系统的数据集。
Nov, 2023
该研究介绍了 CASE 2022 共享任务 1 的结果,重点关注跨语言抗议事件检测和多语言文档分类模型的开发,提出了一种基于集合模型的零 - shot 学习方案,并在 CASE2021 测试数据上表现出卓越的性能。
Nov, 2022
本文介绍了 HASOC 2022 Marathi subtrack,该 track 提供了来自 Twitter 的手动注释数据集,分别对应三个子任务:Task A - offensive content identification、Task B - categorization of offensive types 和 Task C - offensive target identification。最终,本次比赛共有 10 支团队提交了 59 个结果,最佳表现的算法是采用传统与深度学习的结合,分别在 Subtrack 3A、Subtrack 3B 和 Subtrack 3C 上实现了 F1 值分别为 0.9745、0.9207 和 0.9607。
Nov, 2022
本文描述我们在 Jadavpur 大学参加 ICON 2015 任务 - 对混合码印度社交媒体文本进行 POS 标注的实验,并开发了一种基于三元隐马尔可夫模型的工具,该模型利用字典以及其他一些单词级别的特征来增强已知和未知代币的观察概率。 在受控模式下,我们的系统平均整体准确度(在所有三种语言对上取平均值)为 75.60%,这非常接近排名高于我们系统的其他两个系统(IIITH 为 76.79%,AMRITA_CEN 为 75.79%)。 在不受约束的模式下,我们的系统获得了平均整体准确度为 70.65%,这也接近获得最高平均整体准确度的系统(AMRITA_CEN 为 72.85%)。
Jan, 2016
本篇研究介绍了使用阿拉伯语推特数据集提交阿拉伯语言仇恨言论 2022 共享任务的解决方案。为了解决细粒度仇恨言论检测中过度拟合的问题,研究人员探究了多种训练模式,如对比学习和多任务学习,最终使用分类微调和五种模型的集成,取得了良好的性能。 在子任务 A,B 和 C 中分别实现了 0.841,0.817 和 0.476 的宏 F1 平均分数。
Jul, 2022
本文介绍了在社交媒体中迅速增长的仇恨言论现象以及如何使用多语言算法进行检测,其中包括 Hindi、德语和英语等三种语言,使用的数据集是通过机器学习系统对 Twitter 进行分类得到的,并使用了变压器结构 BERT 进行实验。
Aug, 2021
本篇论文探讨针对印度尼西亚语多语种辱骂性言论的大规模分析,研究不同的语言转移机制及该领域的多语种模型的表现,同时探究此类模型对抗性攻击的能力,并进行了误判分析。
Apr, 2022
本篇研究针对社交媒体平台上的辱骂和威胁性言论检测问题,提出了两个任务,并通过 Urdu 语言的二分类数据集进行实验,结果表明基于 m-Bert 的 Transformer 模型的性能最优。
Jul, 2022