自动检测在线游戏论坛的网络欺凌评论
本文介绍了一种自动数据收集系统,用于从在线多人游戏《坦克世界》中连续收集游戏聊天数据,并结合在线数据服务的其他信息。并提出了一种评分方案,用于基于当前研究的网络欺凌识别。该研究使用简单的特征检测,通过 SQL 数据库查询对收集的数据进行了分类,结果显示:虽然 SQL 分类很有用,但基于更复杂的在线情感分析服务的分类则不尽人意。最后,研究结果揭示出在游戏中,可以通过冻结玩家在游戏聊天功能中的通信能力,显著减少网络欺凌。同时,新手玩家很少进行网络欺凌,这意味着这些行为可能来自其他玩家的学习。
Jul, 2019
本研究旨在探讨使用线性支持向量机通过模拟欺凌者、受害者和旁观者的帖子,实现自动检测社交媒体文本中的网络欺凌,并收集并德细注释英语和荷兰语的训练语料库。我们利用丰富的特征集进行一系列二元分类实验,研究哪些信息源对于这一特定任务最有贡献,同时对参数进行优化,分类器在英语和荷兰语分别获得了 64% 和 61% 的 F1 分数,显著优于基于关键字和词单元的基准系统。
Jan, 2018
本文使用数据科学的现代工具将原始文本转化成关键特征,并使用阈值法或学习算法对其进行分类以监控具有攻击性的网络对话,通过系统评估 62 个分类器,从 19 个主要算法组中抽取特征并分析其准确性及相对执行时间。在语法、情感、情绪以及离群字典的 28 个特征中,一个简单的脏词列表被证明是最有预测性的评价有攻击性评论的方法,其中基于树的算法提供最透明易懂的规则,并排列特征的预测贡献。
Oct, 2018
本研究采用深度学习模型和迁移学习方法,对包括 Formspring、Twitter 和 Wikipedia 等多个社交媒体平台的数十万条帖子进行了系统分析,并成功地解决了仅针对单一平台、仅针对特定主题和基于手工特征等问题,为针对多个主题的网络欺凌检测提供了有用的见解。
Jan, 2018
本文调查了最近关于 Cyberbullying 检测方面的文献研究结果。通过使用与文献作者相同的数据集,我们成功再现了他们的结果,并在 YouTube 数据集上进行了扩展研究,研究表明基于深度学习的模型优于先前应用于同一 YouTube 数据集的机器学习模型。我们认为,基于深度学习的模型也可以受益于整合其他信息来源,并研究社交网络中用户相关数据的影响。
Dec, 2018
本研究使用机器学习算法对 Twitter 上的滥用行为进行分类,包括网络欺凌和侵略行为,并通过分析用户、网络和文本属性的差异识别出欺负和侵略者。结果表明,该算法能够以超过 90%的准确率和 AUC 分类这些账户。同时,探讨了 Twitter 标记为滥用行为的用户账户的状况,并研究了 Twitter 可能采用的用户封禁机制的效果。
Jul, 2019
研究探讨了在线游戏中存在的有害行为和恶劣沟通问题,特别关注在线仇恨言论和毒性对玩家游戏表现和整体幸福感的影响。研究使用预训练语言模型来分类或检测游戏中的恶意言论和有毒信息,并评估了 BERT 和 GPT 语言模型在检测游戏内聊天中毒性的性能。通过公开可用的 API,收集、处理、审查和标注了 DOTA 2 游戏匹配中的游戏聊天数据,并使用 BERT(基于小写)模型、BERT(基于大写)模型和 GPT-3 模型进行了训练和测试。根据这三种模型的最新性能,本研究得出了预训练语言模型在解决在线仇恨言论和游戏中恶意侮辱性言论问题方面的潜力。
Mar, 2024
研究讨论了社交媒体平台上存在的有害评论问题,提出使用 Lstm-cnn 模型构建分类器,以高精度区分有毒和无毒评论,并帮助组织更好地检查评论区的有害性。
Apr, 2023