社交媒体暴力极端主义者检测
该研究通过基于语境维度的计算方法及相关知识资源,对推特上的极端主义内容进行了深入分析,开发出一种可靠的算法来识别和反制网络极端化。与竞争算法相比,该算法能够将误标记减少 10.2%。
Aug, 2019
本文提出了一个机器学习框架,利用元数据、社交网络和时间特征来检测极端用户,以及预测社交媒体中内容的采用者和互动的反应,特别是在推特平台的极端用户检测、普通用户采用极端内容的预测以及用户是否会互相联系的预测上,表现非常优异,预测准确率分别高达 93%、80% 和 72%。
May, 2016
采用深度学习算法检测网络极端化,与现有基于机器学习算法的工作相反,论文提出了一种 LSTM 基于前馈神经网络的方法。通过收集来自各种在线资源的记录并由领域专家进行注释,成功将这些记录分为极端(R)、非极端(NR)和无关(I)三类,并应用于 LSTM 基于网络进行分类,取得了 85.9%的精度。
Jul, 2019
本文提供了一份 ISIS 账户发布推文的时间跨度较长的数据集,并对这些账户进行了分析,描述了账户的功能 (如宣传或者行动策划)。文章还探讨了数据集的应用价值以及未来的研究方向。
Feb, 2022
本文研究了暴力事件对 Twitter 和 Reddit 等社交媒体平台上恶意言论量和类型的影响,结果表明极端暴力事件会导致在线恶意言论的增加,特别是直接鼓吹暴力的言论。该研究对在线恶意言论的监控具有重要意义,并提出了对抗恶意言论的方式。
Apr, 2018
研究 ERH 上下文挖掘的特殊领域,汇总了 51 项相关研究,着重于自然语言处理、社区检测和视觉文本模型,提出了推荐给研究人员、政府和行业的实施路线图,旨在建立更安全的网络空间。
Jan, 2023
该研究提出了一个基于机器学习的检测模型,通过使用用户在线活动的多个属性来识别虚拟身份是否属于同一个真实人,以防止虚假 / 非法活动的传播。通过在两个滥用和涉及恐怖主义的 Twitter 内容上演示模型的有效性。
Aug, 2023
我们开发了一个系统,可以使用自然语言处理和机器学习技术自动检测在线圣战恨言,准确度达到 80% 以上。该系统基于 2014 年 10 月至 2016 年 12 月收集的 45000 条互联网上的 Twitter 信息进行训练,并对语料库中的圣战主义修辞进行了定性和定量分析,考察了 Twitter 用户网络,描述了训练系统的技术过程,并给出了使用实例。
Mar, 2018
研究探讨了俄罗斯如何通过社交媒体平台干预 2016 年美国总统选举。并且提出了一种采用预测模型来辨别转发恶意内容用户的方法,以此为未来防止此类行为提供有效的思路和帮助;接着,通过用户政治意识、机器人可能性以及其它活动相关的账户元数据三个方面,为我们辨别恶意转发用户提供了一些有力的建议。
Aug, 2018