基于 Transformer 深度学习的多语种仇恨言论分析与检测
该论文基于 Transformer 语言模型,研究了在社交媒体文本中检测和分类仇恨的问题,并将其固定为三类,同时证明了多语言训练模式的有效性和特定特征对体系结构分类表现的影响。
Jan, 2021
本篇论文探索了基于 Transformer 的多种机器学习模型,用于探测英语和印度 - 雅利安语中的仇恨言论和冒犯性内容,研究团队 “超级马里奥” 采用 mBERT、XLMR-large、XLMR-base 等多种模型,我们在 Code-Mixed 数据集排名第二(宏平均 F1:0.7107)、在印地语二分类中排名第二(宏平均 F1:0.7797)、在英语四分类中排名第四(宏平均 F1:0.8006),在英语二分类中排名第十二(宏平均 F1:0.6447)。
Nov, 2021
本文介绍了 MIDAS-IIITD 团队针对 HASOC 2021 二号子任务提出的系统,用于检测推特上混合使用印地语和英语的谈话中的仇恨言论。我们采用神经网络方法,并利用 transformer 的跨语言嵌入来进行低资源语录下的贴性言论分类,其中最佳表现的系统 [(Indic-BERT, XLM-RoBERTa, 和 Multilingual BERT) 的难度投票集成方法,Macro F1 得分达到 0.7253,排名第一。
Dec, 2021
本研究提出了一种基于 BERT 和 Transfer Learning 的新型方案,以捕获社交媒体内容中的仇恨语境,并证明该方案能有效解决标注数据不足和存在偏差的问题,使得模型性能得到提升。
Oct, 2019
本文介绍了 TU Berlin 小组在 2021 年印欧语言仇恨言论与攻击性内容检测共享任务的 1A 和 1B 子任务中采用的不同自然语言处理模型,包括基于循环神经网络的单词和字符级别模型以及基于 Bert 的转移学习方法,并评估了不同模型在比赛中的表现。结果表明,基于转移学习的模型在两个子任务中均取得了最佳结果。
Jan, 2022
通过多任务联合学习中的情感特征提取方法,本文使用 Bert 和 mBert 模型提升了社交媒体平台上有害内容的探测,实现了数据高效率和更好的分类效果。
Feb, 2023
本文通过分析 Facebook 上代表性的 far-right Hindutva pages 数据集来解决 Social Media Platforms 上 toxic speech 和 hateful content 的问题,使用 state-of-the-art 的 XLM-T multilingual transformer-based language models 对文本内容进行情感和 hate speech 分析,并讨论预训练语言模型的性能和局限性。
Jan, 2023
本研究从 16 个数据来源的 9 种语言中进行大规模的多语言仇恨言论分析,发现在低资源设置下,使用 LASER 嵌入和逻辑回归的简单模型性能最佳,在高资源设置下,BERT 模型表现更好。对于零样本分类,意大利语和葡萄牙语取得了良好的效果。我们提出的框架可用作低资源语言的高效解决方案,并可作为未来多语言仇恨言论检测任务的良好基准。我们已公开了我们的代码和实验设置供其他研究人员使用。
Apr, 2020
我们研究了替代性的基于变压器的生成型 AI 技术,并开发了一种新的数据标注技术,证明了这些先进方法在应对仇恨言论检测中的比较有效性,强调在敏感环境中需要负责任和谨慎管理的 AI 应用。
May, 2024
该研究在五种不同语言中展开了对仇恨言论的广泛比较分析,使用多种预训练模型评估其在这些语言中识别仇恨言论的性能,并为多语言环境下构建强大的仇恨言论检测系统提供了有益的见解。
Dec, 2023