基于 Transformer 和集成方法的阿拉伯语仇恨言论检测解决方案
本文聚焦于利用包括 BERT 在内的多个深度模型以及集成学习等技术,对社交媒体上的仇恨言论进行分类,使用三个公开 Twitter 数据集进行实验并考察多种方法的分类性能,最终以新数据集 DHO 进行多标签分类,取得了不错的成果,尤其在集成学习方面表现良好,如在 Davidson 数据集上采用 stacking 技术得到了 97% 的 F1 得分,而在 DHO 数据集上汇聚集成学习技术得到了 77% 的 F1 得分。
Sep, 2022
使用基于 Transformer 模型的算法来检测社交媒体上的仇恨言论,无论语言如意大利语、英语、德语还是孟加拉语,该模型的检测准确率较现有基准和最先进模型提高,其成功率达到了 89%(孟加拉语)、91%(英语和德语)以及 77%(意大利语)
Jan, 2024
我们在本文中重点介绍了我们为《2023 年阿拉伯语 AI 任务评估(ArAiEval)共享任务》开展的方法。我们提出了针对共享任务的任务 1-A 和任务 2-A 的方法,重点是说服技巧检测和虚假信息检测。检测说服技巧和虚假信息已成为避免真实信息扭曲的必要手段。该任务使用多种体裁的推文和新闻文章来进行给定的二元分类问题。我们尝试了在阿拉伯语上预训练的几种基于 Transformer 的模型,并在提供的数据集上进行了微调。我们采用集成方法来提高系统的性能。我们在任务 1-A 上获得了 0.742 的微平均 F1 分数(排行榜第 8),在任务 2-A 上获得了 0.901 的微平均 F1 分数(排行榜第 7)。
Nov, 2023
自动识别具有攻击性语言,例如仇恨言论,对于保持在线社区中的讨论文明至关重要。这篇论文介绍了 MasonPerplexity 在 CASE 2024 和 EACL 2024 的多模式仇恨言论事件检测共享任务上的提交。
Feb, 2024
本研究探讨了几种最新的视觉 - 语言 Transformer 结构,提出改进措施,以使它们在检测仇恨言论的任务中更接近于人类的准确性。提出的模型明显优于基准线,并在 3100 多个参赛者中排名第 5。
Dec, 2020
本文介绍了 MIDAS-IIITD 团队针对 HASOC 2021 二号子任务提出的系统,用于检测推特上混合使用印地语和英语的谈话中的仇恨言论。我们采用神经网络方法,并利用 transformer 的跨语言嵌入来进行低资源语录下的贴性言论分类,其中最佳表现的系统 [(Indic-BERT, XLM-RoBERTa, 和 Multilingual BERT) 的难度投票集成方法,Macro F1 得分达到 0.7253,排名第一。
Dec, 2021
本研究基于 EACL 2021 的一个共享任务,针对低资源语言如泰米尔语的情况,提出了一种差异化的多元化变压器模型探索以及多个模型集成技术,并通过 Tamil,Kannada 和 Malayalam 三种语言的争夺任务,获得了第一或第二的优异成绩。
Feb, 2021
该论文基于 Transformer 语言模型,研究了在社交媒体文本中检测和分类仇恨的问题,并将其固定为三类,同时证明了多语言训练模式的有效性和特定特征对体系结构分类表现的影响。
Jan, 2021
本篇论文探索了基于 Transformer 的多种机器学习模型,用于探测英语和印度 - 雅利安语中的仇恨言论和冒犯性内容,研究团队 “超级马里奥” 采用 mBERT、XLMR-large、XLMR-base 等多种模型,我们在 Code-Mixed 数据集排名第二(宏平均 F1:0.7107)、在印地语二分类中排名第二(宏平均 F1:0.7797)、在英语四分类中排名第四(宏平均 F1:0.8006),在英语二分类中排名第十二(宏平均 F1:0.6447)。
Nov, 2021
本篇研究介绍了使用阿拉伯语推特数据集提交阿拉伯语言仇恨言论 2022 共享任务的解决方案。为了解决细粒度仇恨言论检测中过度拟合的问题,研究人员探究了多种训练模式,如对比学习和多任务学习,最终使用分类微调和五种模型的集成,取得了良好的性能。 在子任务 A,B 和 C 中分别实现了 0.841,0.817 和 0.476 的宏 F1 平均分数。
Jul, 2022