网络有害行为与社交网络信息撰写风格的关系
本研究使用机器学习算法对 Twitter 上的滥用行为进行分类,包括网络欺凌和侵略行为,并通过分析用户、网络和文本属性的差异识别出欺负和侵略者。结果表明,该算法能够以超过 90%的准确率和 AUC 分类这些账户。同时,探讨了 Twitter 标记为滥用行为的用户账户的状况,并研究了 Twitter 可能采用的用户封禁机制的效果。
Jul, 2019
本文旨在通过多种语言学、心理学及在线行为等多个方面,更好地了解患有心理障碍的社交媒体用户的特征和差异。研究结果表明,这些用户与正常用户相比,在词汇唯一性、情感表达和月度发布方差等方面存在明显差异。
Feb, 2022
该研究对 Twitter 上多种形式的虐待行为进行了 8 个月的综合研究,提出了基于众包的增量迭代方法来注释大规模推文集合,最终确定了一组稳健的标签,从而在其收集和注释的 10 万条推文上展示了相关数据的发现和总结。
Feb, 2018
该论文通过对推特用户的文本、用户和网络属性的提取和分析,提出了一种有效的、可扩展的方法来检测网络欺凌和攻击行为,并通过机器学习分类算法,在 1.6M 条推文上取得了 90% 以上的准确率。
Feb, 2017
本研究通过对三个大型在线讨论社区被封禁用户的分析,表征了不良行为。我们发现这些用户更容易发表与主题无关的内容,并更容易引起其他用户的反应,而实施不良行为通常发生在社区反馈过度苛刻的情况下。此外,我们还发现这些用户的排斥度随着时间的推移而增加,更易被社区禁言。 研究结果表明,在线社区维护者会从这些信息中获得帮助,从而更早地发现和限制不受欢迎的行为。
Apr, 2015
探讨通过增强新数字空间的自我治理机制,缓解网络仇恨的有害影响。报告了一项定性交互分析和统计模型研究,以及探索使用机器学习技术辅助识别反击网络仇恨的结果。
Aug, 2019
使用基于树的方法分析在线社交媒体上用户对有害内容的行为和上下文,研究发现毒性评论会增加在线对话中产生后续毒性评论的可能性,并观察到在用户行为和模式方面,共识亵渎与非共识亵渎存在重叠的相似性。
Apr, 2024