关键词abusive content detection
搜索结果 - 6
- 打破沉默:检测和减少印度在线空间中的性别虐待(印地语、泰米尔语和印度英语)
在线性别基础骚扰是限制女性和边缘性别在数字空间中自由表达和参与的普遍问题。检测此类滥用内容可以使平台遏制这一威胁。我们参加了 ICON2023 举办的 Indic 语言中的性别虐待检测任务,该任务为构建分类器以识别带有性别偏见的滥用提供了英 - 基于情感感知共享编码器的仇恨言论和攻击性语言检测
通过多任务联合学习中的情感特征提取方法,本文使用 Bert 和 mBert 模型提升了社交媒体平台上有害内容的探测,实现了数据高效率和更好的分类效果。
- Twitter 上的攻击性语言检测
本篇报告探讨了社交媒体中侮辱性语言的检测是其中的关键挑战之一,研究者已经提出了许多先进的方法来完成这项任务,在此基础上,作者结合自己的想法,成功实现了 74% 的侮辱性 tweet 分类准确率,并列举了社交媒体世界中即将出现的滥用内容检测挑 - 多语种音频中的滥用检测(ADIMA)
使用自动语音识别和自然语言处理方法进行指辞文本检测,提出了一种说明性多语种骂人检测音频数据集(ADIMA),该数据集取样 10 个印度语言,包含 11,775 个音频样本,旨在实现 Indic 语言中音频内容审核的民主化。
- 面对在线滥用语言:从道德和人权角度的调查
本文主要基于八项伦理原则,即:隐私、问责、安全、可透明、公平和非歧视、技术的人类控制、专业责任、人权的促进,回顾了基于自然语言处理(NLP)的网络滥用内容检测的研究,并提出了权利尊重的社会技术解决方案来检测和对抗线上滥用。
- 在线虐待内容检测中的道德设计
该研究在 NLP 领域探讨了如何构建一个统一的框架,用于解决识别恶意内容(包括仇恨言论,毒性评论,网络欺凌等)的问题,并强调了伦理问题的重要性。提出了一个基于 “设计伦理” 的新框架,通过两个步骤来区分个人信息相对的非个人信息、在每个类别中