通过跨语境词嵌入和迁移学习,将预测扩展到低资源语言中,为即将面临的恶意内容提供了解决方案。
May, 2021
本研究旨在使用多种算法测试识别冒犯帖子的能力,并评估其对多种评估方法的性能,以减少这些语言对人工审核者的伤害。通过实验,本项目能够激发对识别方法和内容的未来研究。
Dec, 2023
该论文基于 Transformer 语言模型,研究了在社交媒体文本中检测和分类仇恨的问题,并将其固定为三类,同时证明了多语言训练模式的有效性和特定特征对体系结构分类表现的影响。
Jan, 2021
本文探讨了如何利用跨语境上下文词向量和迁移学习在使用资源较少的本地化语言中进行社交媒体中的冒犯内容检测,结果表明这个方法在孟加拉语、印地语和西班牙语等多种语言中的检测效率较高。
Oct, 2020
本文介绍了我们基于梯度提升机、BERT 和 LASER 嵌入式开发的 HateMonitor 模型,在 Indo-European Languages HASOC(FIRE 2019 的任务之一)中排名第一,用于令人讨厌和令人反感的内容识别。
Sep, 2019
该研究旨在创建第一个具有细粒度标签的 Reddit 评论英语数据集,该数据集使用了最佳 - 最差比较评分的方式进行注释,为社交媒体平台上自动检测冒犯性言论提供了可靠方法。
Jun, 2021
本篇报告探讨了社交媒体中侮辱性语言的检测是其中的关键挑战之一,研究者已经提出了许多先进的方法来完成这项任务,在此基础上,作者结合自己的想法,成功实现了 74% 的侮辱性 tweet 分类准确率,并列举了社交媒体世界中即将出现的滥用内容检测挑战。
Sep, 2022
本文介绍了在社交媒体中迅速增长的仇恨言论现象以及如何使用多语言算法进行检测,其中包括 Hindi、德语和英语等三种语言,使用的数据集是通过机器学习系统对 Twitter 进行分类得到的,并使用了变压器结构 BERT 进行实验。
Aug, 2021
该研究介绍了两个针对恶意评论和冒犯性言论的数据集,并使用先进的语言模型和机器学习算法进行了实验,以建立该数据集的基准,结果表明 XLM-RoBERTa 在该数据集上的 F1 分数分别为 76.9% 和 89.9%。
Apr, 2024
本研究介绍了一种适用于任何语言的详细框架,其中包括有关有害语言检测的各个方面,同时也提出了情感分析的整合作为改进有害语言检测的新方法。通过在低资源语言中实施该框架,展示了其高效的性能,达到了 99.4% 的恶意语言检测准确率和 66.2% 的情感分析准确率。
Mar, 2024