本研究旨在探讨使用线性支持向量机通过模拟欺凌者、受害者和旁观者的帖子,实现自动检测社交媒体文本中的网络欺凌,并收集并德细注释英语和荷兰语的训练语料库。我们利用丰富的特征集进行一系列二元分类实验,研究哪些信息源对于这一特定任务最有贡献,同时对参数进行优化,分类器在英语和荷兰语分别获得了 64% 和 61% 的 F1 分数,显著优于基于关键字和词单元的基准系统。
Jan, 2018
本研究使用机器学习算法对 Twitter 上的滥用行为进行分类,包括网络欺凌和侵略行为,并通过分析用户、网络和文本属性的差异识别出欺负和侵略者。结果表明,该算法能够以超过 90%的准确率和 AUC 分类这些账户。同时,探讨了 Twitter 标记为滥用行为的用户账户的状况,并研究了 Twitter 可能采用的用户封禁机制的效果。
Jul, 2019
通过机器学习模型,利用推文文本中提取的用户资料来检测社交机器人(social bots)的研究,其主要贡献为提出一种利用个人信息相似性来区分社交机器人和人类用户的新模型,并创建了一个包含 6900 个 Twitter 账户资料的公共数据集。
Mar, 2022
本文首次报道了人权活动家和机器学习家之间的合作,利用众包研究了 Twitter 上针对女性的在线虐待。通过分析来承认滥用感知的变异性,为其释放给社区研究工作做好准备。在社会影响方面,这项研究为旨在提高公众和决策者意识以及提高社交媒体公司期望标准的媒体活动提供了技术支持。
Jan, 2019
本研究采用深度学习模型和迁移学习方法,对包括 Formspring、Twitter 和 Wikipedia 等多个社交媒体平台的数十万条帖子进行了系统分析,并成功地解决了仅针对单一平台、仅针对特定主题和基于手工特征等问题,为针对多个主题的网络欺凌检测提供了有用的见解。
本研究旨在通过使用心理学和社会理论来定义网络上的毒性,提出了一种多维度的网络毒性检测方法,结合显式知识和统计学习算法,以解决网络毒性检测中的歧义和复杂度问题。
Apr, 2021
该论文通过对推特用户的文本、用户和网络属性的提取和分析,提出了一种有效的、可扩展的方法来检测网络欺凌和攻击行为,并通过机器学习分类算法,在 1.6M 条推文上取得了 90% 以上的准确率。
Feb, 2017
本文调查了最近关于 Cyberbullying 检测方面的文献研究结果。通过使用与文献作者相同的数据集,我们成功再现了他们的结果,并在 YouTube 数据集上进行了扩展研究,研究表明基于深度学习的模型优于先前应用于同一 YouTube 数据集的机器学习模型。我们认为,基于深度学习的模型也可以受益于整合其他信息来源,并研究社交网络中用户相关数据的影响。
Dec, 2018
该研究对 Twitter 上多种形式的虐待行为进行了 8 个月的综合研究,提出了基于众包的增量迭代方法来注释大规模推文集合,最终确定了一组稳健的标签,从而在其收集和注释的 10 万条推文上展示了相关数据的发现和总结。
Feb, 2018
本篇报告探讨了社交媒体中侮辱性语言的检测是其中的关键挑战之一,研究者已经提出了许多先进的方法来完成这项任务,在此基础上,作者结合自己的想法,成功实现了 74% 的侮辱性 tweet 分类准确率,并列举了社交媒体世界中即将出现的滥用内容检测挑战。
Sep, 2022