Twitter 中社交机器人的增长、内容和影响力分析
通过在线社交实验,发现没有信任、档案和复制用户行为目标的机器人可通过基本的社交探测活动在社交媒体上获得社交相关性,进而有效地引导用户的社交连接选择,并揭示了隐蔽的社交极化模式和用户感知的微妙隐私风险。
Jul, 2014
本文提出了一个基于超过一千个公共数据和元数据特征的框架,用于检测 Twitter 上的社交媒体自主实体(即社交媒体机器人)。经测试,此框架能够与公开的 Twitter 机器人数据集高度契合,可以检测不同类型的机器人,如垃圾邮件发送者、自我推广者和使用连接应用程序发布内容的账户等,并且估计在活跃的 Twitter 账户中有 9% 至 15% 的机器人,机器人相互之间的交互关系有助于研究用于相互之间通信的转发和提到策略。
Mar, 2017
本研究通过 Twitter 上的真实实验和追踪模拟,展示了利用社会机器人网络进行垃圾邮件分发和数字影响操作的有效性和优势,并提出了相应的对策并评估其有效性,以帮助理解社会机器人网络的潜在危害以及帮助在线社交网络改进其机器人(网络)检测系统。
Mar, 2016
为了识别和消除在社交媒体上操纵舆论的『操纵机器人』,DARPA 在 2015 年 2 月 / 3 月举办了一项竞赛,多个在 DARPA 社交媒体战略传播计划支持下的团队参赛,本文介绍了这次竞赛以及三个最高排名团队所使用的方法。
Jan, 2016
通过机器学习模型,利用推文文本中提取的用户资料来检测社交机器人(social bots)的研究,其主要贡献为提出一种利用个人信息相似性来区分社交机器人和人类用户的新模型,并创建了一个包含 6900 个 Twitter 账户资料的公共数据集。
Mar, 2022
BotOrNot 是一个公开的服务,它利用一千多个特征来评估 Twitter 帐户与社交机器人已知特征的相似度。自 2014 年 5 月发布以来,BotOrNot 已经通过网站和 API 处理了超过一百万个请求。
Feb, 2016
利用启发式方法,本研究发现 1,140 个通过 Twitter botnet 使用 ChatGPT 生成人类风格内容的虚假个人的密集集群,并通过人工注释验证。ChatGPT 生成的内容宣传可疑网站并传播有害评论。尽管 AI botnet 中的账户可以通过其协调模式检测到,但目前最先进的大语言模型内容分类器无法区分它们和真实用户账户。这些发现强调了 AI 助推社交机器人带来的威胁。
Jul, 2023
本文探究社交机器人与真实账户之间的语言差异,提出的词汇丰富度、词汇复杂度和表情符号分布等识别特征,可以有效地用于机器学习模型的训练和社交机器人识别。
Dec, 2018
研究发现,社交媒体被系统性地利用来操纵和改变公众舆论,MacronLeaks 虚假信息运动中的账号使用模式表明可能存在可重复使用的政治虚假信息机器人的黑市。
Jul, 2017
采集了一份大规模的多语言社交话语 Twitter 数据集,并通过 Twitter API 和 Botometer 提供的已带标签的 Twitter 账号数据集与另外两个热门话题(即 2022 年能源危机和阴谋论讨论)来检测 Twitter 上的机器人账号,利用基于 XGBoost 模型的新型机器学习模型和大量标记数据集相结合,可以在不同的时间段内,独立于 Twitter API 对数据集进行标记,相比于 Botometer,在两个实际应用数据集上实现了平均 11% 更高的 ROC-AUC 得分。
May, 2023