使用大型语言模型进行网络欺凌检测
通过深度学习方法,特别是采用 BERT 和 BiLSTM 架构,我们的研究介绍了一种针对网络霸凌问题的深度学习方法,可以有效地分析大量帖子并预测潜在的网络霸凌行为。结果表明,我们的 hateBERT 模型在五个模型中表现卓越,达到了 89.16% 的准确率,为实现更安全和更包容的数字化环境作出了重要贡献。
Apr, 2024
本研究采用深度学习模型和迁移学习方法,对包括 Formspring、Twitter 和 Wikipedia 等多个社交媒体平台的数十万条帖子进行了系统分析,并成功地解决了仅针对单一平台、仅针对特定主题和基于手工特征等问题,为针对多个主题的网络欺凌检测提供了有用的见解。
Jan, 2018
使用深度学习策略,本研究构建了一个双层双向长短时记忆(Bi-LSTM)模型,通过多种优化器和 5 折交叉验证来鉴别孟加拉语中的网络欺凌,结果显示所提出的模型在动量加速随机梯度下降(SGD)优化器下的准确率为 94.46%,在 Adam 优化器下的准确率为 95.08%,F1 分数为 95.23%,并在 5 折交叉验证中具有 94.31% 的准确率。
Jan, 2024
本文调查了最近关于 Cyberbullying 检测方面的文献研究结果。通过使用与文献作者相同的数据集,我们成功再现了他们的结果,并在 YouTube 数据集上进行了扩展研究,研究表明基于深度学习的模型优于先前应用于同一 YouTube 数据集的机器学习模型。我们认为,基于深度学习的模型也可以受益于整合其他信息来源,并研究社交网络中用户相关数据的影响。
Dec, 2018
社交媒体平台、网络欺凌、自动化系统、集成机器学习和挑衅性推文是本研究的关键词。研究通过采用四种特征提取技术,并结合五种机器学习算法,最终实现了 94.00% 的高准确率,优于传统机器学习模型,并超越了之前在相同数据集上的实验结果。
Feb, 2024
本研究旨在探讨使用线性支持向量机通过模拟欺凌者、受害者和旁观者的帖子,实现自动检测社交媒体文本中的网络欺凌,并收集并德细注释英语和荷兰语的训练语料库。我们利用丰富的特征集进行一系列二元分类实验,研究哪些信息源对于这一特定任务最有贡献,同时对参数进行优化,分类器在英语和荷兰语分别获得了 64% 和 61% 的 F1 分数,显著优于基于关键字和词单元的基准系统。
Jan, 2018
本文介绍了 SecurityLLM,它是一个旨在检测网络安全威胁的预训练语言模型,其中 SecurityBERT 作为网络威胁检测机制,而 FalconLLM 则是一种事件响应和恢复系统,实验结果表明,我们的 SecurityLLM 模型可以在 98% 的准确率下识别 14 种不同类型的攻击。
Jun, 2023
本研究针对社交网络文本数据中含有的对抗性攻击内容,特别强调仇恨言论的网络欺凌进行检测,利用基于深度学习的方法和纠错算法,实现了显著结果。LSTM 模型在固定的 100 个时期内表现出色,准确率、精确率、召回率、F1 分数和 AUC-ROC 分数分别达到了 87.57%、88.73%、87.57%、88.15% 和 91%。此外,LSTM 模型的性能超过了先前的研究。
May, 2024
该研究旨在使用多项式朴素贝叶斯和支持向量机等机器学习算法,开发具有 92%准确率的永久性解决方案,以检测和拦截网络暴力传入和传出信息,并开发了聊天机器人自动化消息系统。
Jul, 2022
社交媒体平台在及时进行内容审查上的困难助长了用户滥用这些平台传播低俗或侮辱性言论,而这种行为如果反复进行就会造成网络霸凌,这是一种在虚拟环境中发生的社会问题,但会导致现实世界中的严重后果,如抑郁、退缩,甚至受害者产生自杀倾向。目前已经开发了一些自动检测和减轻网络霸凌的系统,但不幸的是,其中绝大部分只适用于英文,只有极少数适用于资源匮乏的语言。为了评估当前的研究状况并确定进一步发展的需求,本文详细调研了在资源匮乏语言中进行自动网络霸凌检测的相关研究。我们分析了所有可获得的关于这一主题的研究,并调查了 2017 年至 2023 年 1 月间发表的超过 70 篇关于资源匮乏语言和方言中自动检测网络霸凌或相关语言的研究。本文涵盖了 23 种资源匮乏语言和方言,包括孟加拉语、印地语和德拉维达语等。在调研中,我们找出了以前研究中的一些空白,包括对网络霸凌及其相关子类别的可靠定义的缺乏,数据获取和标注中的偏见。基于对这些研究空白的认识,我们提出了改进网络霸凌检测的一些建议,重点关注资源匮乏语言。基于这些建议,我们收集并发布了一个基于 Chittagonian 方言的网络霸凌数据集,并提出了一些在这个数据集上进行训练的初始机器学习解决方案。此外,还尝试了基于预训练的 BanglaBERT 模型。
Aug, 2023