使用 BERT 在 Parler 上检测仇恨言论的目标
本研究使用各种算法对 Parler 平台上的仇恨言论进行了大规模分析,并使用标注的数据集对用户进行了分类,发现 16.1%的活跃用户是仇恨言论传播者,并且他们在活动性、中心性、情感表达和表达的不同种类等方面具有明显的特征,这是对 Parler 平台上的仇恨言论进行的首项量化和用户层面分析研究,同时还提供了可供研究社区使用的标注数据集。
Jan, 2022
本研究提出了一种基于 BERT 和 Transfer Learning 的新型方案,以捕获社交媒体内容中的仇恨语境,并证明该方案能有效解决标注数据不足和存在偏差的问题,使得模型性能得到提升。
Oct, 2019
使用基于 Transformer 模型的算法来检测社交媒体上的仇恨言论,无论语言如意大利语、英语、德语还是孟加拉语,该模型的检测准确率较现有基准和最先进模型提高,其成功率达到了 89%(孟加拉语)、91%(英语和德语)以及 77%(意大利语)
Jan, 2024
本文聚焦于利用包括 BERT 在内的多个深度模型以及集成学习等技术,对社交媒体上的仇恨言论进行分类,使用三个公开 Twitter 数据集进行实验并考察多种方法的分类性能,最终以新数据集 DHO 进行多标签分类,取得了不错的成果,尤其在集成学习方面表现良好,如在 Davidson 数据集上采用 stacking 技术得到了 97% 的 F1 得分,而在 DHO 数据集上汇聚集成学习技术得到了 77% 的 F1 得分。
Sep, 2022
社交媒体上激进内容的快速传播促使了对仇恨言论的检测任务的需求,本论文提供了一种构建用于针对性仇恨言论检测的系统的方法,并介绍了一个越南社交媒体文本的针对性仇恨言论检测数据集,并结合预训练语言模型与基于文本表征的 Bi-GRU-LSTM-CNN 模型建立了基线模型,最终提出了一种方法将该模型整合至在线流媒体系统,以在社交媒体上防止令人讨厌和冒犯性内容的实际应用。
Apr, 2024
本文介绍了 TU Berlin 小组在 2021 年印欧语言仇恨言论与攻击性内容检测共享任务的 1A 和 1B 子任务中采用的不同自然语言处理模型,包括基于循环神经网络的单词和字符级别模型以及基于 Bert 的转移学习方法,并评估了不同模型在比赛中的表现。结果表明,基于转移学习的模型在两个子任务中均取得了最佳结果。
Jan, 2022
针对社交媒体上在线仇恨言论问题,提出了一种基于集成深度学习模型的新框架,包括对未标记数据集的自动分类、调整因子和弱监督学习方法,可有效提高依恋集等小众平台的恶意言论检测率。
Nov, 2020
通过使用预训练语言模型 BERT 进行迁移学习,本文提出了一种在推特上进行种族主义、性别主义、仇恨性或冒犯性内容检测的算法,并将对算法进行合理地裁剪降低出现倾向性的缺陷。
Aug, 2020
我们的研究通过关注同性恋恶言,填补了在线仇恨言论检测研究中的一个重要空白。通过利用先进的情感分析模型,尤其是 BERT,和传统的机器学习方法,我们开发出了一个细致入微的方法来识别 X/Twitter 上的同性恋恶言内容。这项研究具有重要意义,因为同性恋恶言在检测模型中一直存在较低的代表性。我们的发现表明,虽然 BERT 优于传统方法,但验证技术的选择会影响模型的性能。这凸显了在检测微妙仇恨言论时上下文理解的重要性。通过发布我们所了解到的关于同性恋恶言检测的最大开源标记英文数据集,分析各种模型的性能和我们最强的基于 BERT 的模型,我们旨在提高在线安全性和包容性。未来的工作将扩展到更广泛的 LGBTQIA + 仇恨言论检测,解决多样性数据集来源的挑战。通过这一努力,我们为打击在线仇恨言论作出贡献,倡导更包容的数字景观。我们的研究不仅为改进先前研究结果提供了有关有效检测同性恋恶言内容的见解,而且为未来仇恨言论分析的进一步发展奠定了基础。
May, 2024
本文是一篇关于社交媒体上仇恨言论的系统性量化研究,使用了 Whisper 和 Twitter 两个社交媒体平台,采用一种新的方法来识别和分析仇恨言论的目标,旨在为防范和识别社交媒体上的仇恨言论提供方向。
Mar, 2016