掩面之后:匿名在 Twitter 上的存在的计算研究
通过机器学习识别大规模的 Twitter 上的 Anonymous 账号,使用话题模型研究了这些账号发帖内容,发现其与 Black Lives Matter 有关并存在自动化行为。结果表明,尽管该组织在抗议活动中看到了复兴,但机器人活动可能是夸大此复兴程度的原因。
Jul, 2021
介绍了一种分析社交网络中隐私和匿名性的框架,并开发了一种新的针对匿名化社交网络图的重新识别算法。此算法纯基于网络拓扑,无需创建大量虚假节点,可对抗噪声和所有现有防御,哪怕目标网络与攻击者的辅助信息之间的重叠很小。
Mar, 2009
本研究提出一种新的方法,建立一个包括参与 2022 年全年阴谋相关活动的推特用户的数据集,该数据集通过独立于具体阴谋理论和信息运作进行数据收集。通过比较分析,结果显示阴谋用户和对照组在个人资料特征上相似,但在行为和活动上有明显的差异,尤其是讨论的主题、使用的专业术语以及对热门话题的立场。最后,我们开发了一个分类器,使用 93 个特征来识别阴谋用户,结果表明该分类器具有高准确性(平均 F1 得分为 0.98%),从而揭示了与阴谋相关账户最具区别性的特征。
Aug, 2023
人工智能的生成性进展使真实和机器生成的内容之间的界限变得模糊,尤其在社交媒体上使用 AI 生成的图片来伪造个人资料。我们进行了首次大规模调查,研究发现 Twitter 上的 AI 生成头像占总头像数量的 0.052%。我们对这些账户及其推文内容进行了全面分析,并揭示了协同不真实行为的模式。研究结果还揭示了垃圾邮件和政治放大战略等多种动机。这一研究结果再次证实了需要制定有效的检测和缓解策略来应对未来生成性人工智能可能带来的负面影响。
Apr, 2024
该研究回顾了社交网络分析 (SNA) 和语义分析 (SA) 在 Twitter 平台上研究政治领导人支持者网络的应用,以预测他们的政治未来。
Jul, 2022
本文研究了一种特定的 Twitter 社交机器人网络,分析了其增长、内容和行为,以及该机器人网络对相关讨论的影响。通过对约 3000 条推文进行定性编码分析,发现该机器人网络的增长、行为和内容并不符合通常机器人网络的概念,并识别了与普通用户不同的有趣方面。
Apr, 2016
通过使用生成对抗网络 (GANs) 生成的具有人脸的推特用户作为样本,本研究系统分析了近期发展的生成人工智能 (AI) 在创建可信的假社交媒体账户方面的潜在问题。结果发现这些账户被用于传播欺诈、垃圾邮件以及增强协调的信息等虚假行为,并通过利用 GAN 生成的人脸中眼睛位置的特征以及人工注释的方法,对野外中的 GAN 生成的个人资料进行有效的识别。研究估计活跃推特用户中使用 GAN 生成的人脸的比例下限为 0.021% 至 0.044%,即每天约有 1 万个活跃账户。这些发现凸显了多模态生成 AI 所带来的新威胁。研究者公开了检测方法的源代码和收集到的数据以助于进一步调查,并提供实用启发法帮助社交媒体用户辨别此类账户。
Jan, 2024
本文首次报道了人权活动家和机器学习家之间的合作,利用众包研究了 Twitter 上针对女性的在线虐待。通过分析来承认滥用感知的变异性,为其释放给社区研究工作做好准备。在社会影响方面,这项研究为旨在提高公众和决策者意识以及提高社交媒体公司期望标准的媒体活动提供了技术支持。
Jan, 2019