基于深度学习的孟加拉语网络欺凌检测
社交媒体平台在及时进行内容审查上的困难助长了用户滥用这些平台传播低俗或侮辱性言论,而这种行为如果反复进行就会造成网络霸凌,这是一种在虚拟环境中发生的社会问题,但会导致现实世界中的严重后果,如抑郁、退缩,甚至受害者产生自杀倾向。目前已经开发了一些自动检测和减轻网络霸凌的系统,但不幸的是,其中绝大部分只适用于英文,只有极少数适用于资源匮乏的语言。为了评估当前的研究状况并确定进一步发展的需求,本文详细调研了在资源匮乏语言中进行自动网络霸凌检测的相关研究。我们分析了所有可获得的关于这一主题的研究,并调查了 2017 年至 2023 年 1 月间发表的超过 70 篇关于资源匮乏语言和方言中自动检测网络霸凌或相关语言的研究。本文涵盖了 23 种资源匮乏语言和方言,包括孟加拉语、印地语和德拉维达语等。在调研中,我们找出了以前研究中的一些空白,包括对网络霸凌及其相关子类别的可靠定义的缺乏,数据获取和标注中的偏见。基于对这些研究空白的认识,我们提出了改进网络霸凌检测的一些建议,重点关注资源匮乏语言。基于这些建议,我们收集并发布了一个基于 Chittagonian 方言的网络霸凌数据集,并提出了一些在这个数据集上进行训练的初始机器学习解决方案。此外,还尝试了基于预训练的 BanglaBERT 模型。
Aug, 2023
通过深度学习方法,特别是采用 BERT 和 BiLSTM 架构,我们的研究介绍了一种针对网络霸凌问题的深度学习方法,可以有效地分析大量帖子并预测潜在的网络霸凌行为。结果表明,我们的 hateBERT 模型在五个模型中表现卓越,达到了 89.16% 的准确率,为实现更安全和更包容的数字化环境作出了重要贡献。
Apr, 2024
本文调查了最近关于 Cyberbullying 检测方面的文献研究结果。通过使用与文献作者相同的数据集,我们成功再现了他们的结果,并在 YouTube 数据集上进行了扩展研究,研究表明基于深度学习的模型优于先前应用于同一 YouTube 数据集的机器学习模型。我们认为,基于深度学习的模型也可以受益于整合其他信息来源,并研究社交网络中用户相关数据的影响。
Dec, 2018
社交媒体网络欺凌对人类生活有不利影响。本文提出了一种可信赖的用于社交媒体网络欺凌检测的 LSTM-Autoencoder 网络,使用合成数据。通过生成机器翻译数据,我们展示了一种解决数据可用性困难的前沿方法。我们使用提出的模型和传统模型,包括 LSTM、双向 LSTM、LSTM-Autoencoder、Word2vec、BERT 和 GPT-2 模型,在 Hindi、Bangla 和英文数据集上进行了实验性的攻击性评论识别。我们使用 f1-score、准确度、精确度和召回率等评估指标来评估模型性能。我们的模型在所有数据集上性能优于其他模型,最高准确度达到了 95%。在本文中使用的数据集上,我们的模型实现了最新的研究成果。
Aug, 2023
本研究采用深度学习模型和迁移学习方法,对包括 Formspring、Twitter 和 Wikipedia 等多个社交媒体平台的数十万条帖子进行了系统分析,并成功地解决了仅针对单一平台、仅针对特定主题和基于手工特征等问题,为针对多个主题的网络欺凌检测提供了有用的见解。
Jan, 2018
本研究针对社交网络文本数据中含有的对抗性攻击内容,特别强调仇恨言论的网络欺凌进行检测,利用基于深度学习的方法和纠错算法,实现了显著结果。LSTM 模型在固定的 100 个时期内表现出色,准确率、精确率、召回率、F1 分数和 AUC-ROC 分数分别达到了 87.57%、88.73%、87.57%、88.15% 和 91%。此外,LSTM 模型的性能超过了先前的研究。
May, 2024
本研究使用监督学习和深度学习算法,专注于在社交媒体中检测粗俗言论;逻辑回归方法表现出有希望的准确性(0.91),而简单的循环神经网络结合 Word2vec 和 fastText 的准确性较低(0.84-0.90),突显神经网络算法需要更多数据的问题。
Aug, 2023
本文提出了一种基于 Res-CNN-BiLSTM 混合深度学习模型的方法,用于分析社交媒体上的文本语言数据,识别并处理基于宗教、种族、年龄和性别等因素的网络欺凌行为,以对心理健康问题进行干预。
Apr, 2022
通过使用编码器和解码器技术(encoder decoder),作者们提出了一种基于机器学习的模型来检测社交媒体中孟加拉语言使用者的仇恨言论。该模型使用了 1D 卷积层来提取和编码本地特征,并使用了注意机制、LSTM 和 GRU 解码器来预测仇恨言论的类别。经过评估,最佳的预测精度达到了 77%。
Mar, 2022