社交媒体平台感知的对抗编码在网络欺凌检测中的应用
本研究采用深度学习模型和迁移学习方法,对包括 Formspring、Twitter 和 Wikipedia 等多个社交媒体平台的数十万条帖子进行了系统分析,并成功地解决了仅针对单一平台、仅针对特定主题和基于手工特征等问题,为针对多个主题的网络欺凌检测提供了有用的见解。
Jan, 2018
社交媒体平台、网络欺凌、自动化系统、集成机器学习和挑衅性推文是本研究的关键词。研究通过采用四种特征提取技术,并结合五种机器学习算法,最终实现了 94.00% 的高准确率,优于传统机器学习模型,并超越了之前在相同数据集上的实验结果。
Feb, 2024
衡量和减轻基于脱节性联想的粗俗词语和事件之间偏见关联带来的偏见,我们引入了 ID-XCB,这是第一种不依赖数据的去偏技术,结合了对抗训练、偏见约束和去偏微调方法,旨在减轻模型对诱导偏见词语的关注,而不影响整体模型性能。我们在两个常见的基于会话的网络欺凌数据集上探索了 ID-XCB,并进行了全面的消融和泛化研究。我们证明 ID-XCB 具有学习强大的网络欺凌检测能力,并减轻了偏见,其在性能和偏见减轻上优于最先进的去偏方法。我们的定量和定性分析证明其对未知数据的泛化能力。
Feb, 2024
本文调查了最近关于 Cyberbullying 检测方面的文献研究结果。通过使用与文献作者相同的数据集,我们成功再现了他们的结果,并在 YouTube 数据集上进行了扩展研究,研究表明基于深度学习的模型优于先前应用于同一 YouTube 数据集的机器学习模型。我们认为,基于深度学习的模型也可以受益于整合其他信息来源,并研究社交网络中用户相关数据的影响。
Dec, 2018
本研究针对社交网络文本数据中含有的对抗性攻击内容,特别强调仇恨言论的网络欺凌进行检测,利用基于深度学习的方法和纠错算法,实现了显著结果。LSTM 模型在固定的 100 个时期内表现出色,准确率、精确率、召回率、F1 分数和 AUC-ROC 分数分别达到了 87.57%、88.73%、87.57%、88.15% 和 91%。此外,LSTM 模型的性能超过了先前的研究。
May, 2024
通过深度学习方法,特别是采用 BERT 和 BiLSTM 架构,我们的研究介绍了一种针对网络霸凌问题的深度学习方法,可以有效地分析大量帖子并预测潜在的网络霸凌行为。结果表明,我们的 hateBERT 模型在五个模型中表现卓越,达到了 89.16% 的准确率,为实现更安全和更包容的数字化环境作出了重要贡献。
Apr, 2024
通过开发首个可解释模型 mExCB,基于混合编码语言的 BullyExplain 数据集,自动检测网络欺凌并辨识解释、目标群体以及情感分析,超越多个基准模型和现有模型的综合任务框架。
Jan, 2024
本研究旨在探讨使用线性支持向量机通过模拟欺凌者、受害者和旁观者的帖子,实现自动检测社交媒体文本中的网络欺凌,并收集并德细注释英语和荷兰语的训练语料库。我们利用丰富的特征集进行一系列二元分类实验,研究哪些信息源对于这一特定任务最有贡献,同时对参数进行优化,分类器在英语和荷兰语分别获得了 64% 和 61% 的 F1 分数,显著优于基于关键字和词单元的基准系统。
Jan, 2018
使用深度学习策略,本研究构建了一个双层双向长短时记忆(Bi-LSTM)模型,通过多种优化器和 5 折交叉验证来鉴别孟加拉语中的网络欺凌,结果显示所提出的模型在动量加速随机梯度下降(SGD)优化器下的准确率为 94.46%,在 Adam 优化器下的准确率为 95.08%,F1 分数为 95.23%,并在 5 折交叉验证中具有 94.31% 的准确率。
Jan, 2024