探索在线团队竞技中的网络欺凌和其他有害行为
该研究提出了一种基于监督学习的方法来预测有毒行为的众包决策,使用了超过 1000 万用户报告的数据,展示了在跨地区数据上的良好性能,预计将带来节约成本和保护受害者的实际影响。
Apr, 2014
本文介绍了一种自动数据收集系统,用于从在线多人游戏《坦克世界》中连续收集游戏聊天数据,并结合在线数据服务的其他信息。并提出了一种评分方案,用于基于当前研究的网络欺凌识别。该研究使用简单的特征检测,通过 SQL 数据库查询对收集的数据进行了分类,结果显示:虽然 SQL 分类很有用,但基于更复杂的在线情感分析服务的分类则不尽人意。最后,研究结果揭示出在游戏中,可以通过冻结玩家在游戏聊天功能中的通信能力,显著减少网络欺凌。同时,新手玩家很少进行网络欺凌,这意味着这些行为可能来自其他玩家的学习。
Jul, 2019
本研究使用机器学习算法对 Twitter 上的滥用行为进行分类,包括网络欺凌和侵略行为,并通过分析用户、网络和文本属性的差异识别出欺负和侵略者。结果表明,该算法能够以超过 90%的准确率和 AUC 分类这些账户。同时,探讨了 Twitter 标记为滥用行为的用户账户的状况,并研究了 Twitter 可能采用的用户封禁机制的效果。
Jul, 2019
本文提出了一种基于社交互动以及欺凌指标种子词典的模型,通过参与者 - 词汇一致性构建目标函数,可以同时发现欺凌者和受害者以及新的欺凌词汇,并通过 Twitter 和 Ask.fm 数据集展示了该方法的有效性。
Jun, 2016
该研究对 Twitter 上多种形式的虐待行为进行了 8 个月的综合研究,提出了基于众包的增量迭代方法来注释大规模推文集合,最终确定了一组稳健的标签,从而在其收集和注释的 10 万条推文上展示了相关数据的发现和总结。
Feb, 2018
本文研究了 2014 年网游世界的 Gamergate 争端,通过对 Twitter 用户发布的数据进行测量,发现参与这一 “Twitter 之战” 的用户往往拥有更多的朋友和关注者,发布具有负面情绪和仇恨的推文,并探讨了 Twitter 的暂停机制处理此类滥用行为的初步措施。
Feb, 2017
本研究旨在通过使用心理学和社会理论来定义网络上的毒性,提出了一种多维度的网络毒性检测方法,结合显式知识和统计学习算法,以解决网络毒性检测中的歧义和复杂度问题。
Apr, 2021
社交媒体平台的兴起导致了网络攻击行为的增加,其中包括网络欺凌、在线骚扰和冒犯性和仇恨言论的传播。这篇论文通过分析定义的多样性并提出统一的网络攻击定义,深入研究了攻击性内容检测和攻击性用户行为分析领域,揭示了将社会学见解与计算技术相结合以预防网络攻击行为的有效性。
Nov, 2023
本研究使用《魔兽世界》和《英雄联盟》论坛中的网络欺凌数据集,使用 Toxic-BERT 模型进行分类,以自动检测和删除虚拟游戏论坛中的欺凌性评论。结果表明,LoL 论坛的宏 F1 得分为 82.69%,WoW 论坛的宏 F1 得分为 83.86%。
Jun, 2021