利用大型语言模型和逼真的机器人账号激励社交媒体平台上的新闻消费
社交媒体及其新闻推送算法对于提升构建性对话具有挑战性,本研究使用大型语言模型和基于代理模型的仿真来研究不同的新闻推送算法如何影响在线对话质量,发现新推送算法能够促进跨政治观点的建设性、非有害对话。
Oct, 2023
对个人化的大型语言模型输出进行用户政治倾向性的引导,发现左倾用户更容易接收到对左派政界人物和媒体机构的正面评价,而右倾用户则更容易接收到对右派实体的正面评价。这种个人化模式会带来情感极化和过滤泡沫的风险。
Oct, 2023
该研究旨在通过研究虚假新闻生态系统中的语言学家(例如虚假新闻分享者,谣言核实分享者和随机 Twitter 用户)和创造其语言特征剖面来确定更可能分享虚假新闻的个人,并将所推断的心理语言学提示结合社会人口预测因子包含在一个模型中,从而显著提高虚假新闻分享者的分类准确性,这可以帮助在线平台及时屏蔽潜在的虚假新闻分享者。
Mar, 2022
利用启发式方法,本研究发现 1,140 个通过 Twitter botnet 使用 ChatGPT 生成人类风格内容的虚假个人的密集集群,并通过人工注释验证。ChatGPT 生成的内容宣传可疑网站并传播有害评论。尽管 AI botnet 中的账户可以通过其协调模式检测到,但目前最先进的大语言模型内容分类器无法区分它们和真实用户账户。这些发现强调了 AI 助推社交机器人带来的威胁。
Jul, 2023
研究探讨了俄罗斯如何通过社交媒体平台干预 2016 年美国总统选举。并且提出了一种采用预测模型来辨别转发恶意内容用户的方法,以此为未来防止此类行为提供有效的思路和帮助;接着,通过用户政治意识、机器人可能性以及其它活动相关的账户元数据三个方面,为我们辨别恶意转发用户提供了一些有力的建议。
Aug, 2018
本研究比较分析了两个大型语言模型(LLM)聊天机器人 ——ChatGPT 和 Bing Chat(现在已更名为 Microsoft Copilot)在检测政治信息真实性方面的能力。通过使用人工智能审计方法,我们在 COVID-19、俄罗斯对乌克兰的侵略、大屠杀、气候变化和 LGBTQ + 相关辩论这五个话题上,研究了聊天机器人对真实、虚假和模糊陈述的评估。我们使用英语、俄语和乌克兰语的提示,比较聊天机器人在高资源语言和低资源语言环境下的表现。此外,我们利用定义为导向的提示,探索了聊天机器人按照政治传播概念(如虚假信息、错误信息和阴谋论)对陈述进行评估的能力。我们还系统地测试了来源偏见对这种评估的影响,通过将具体声明归属于不同的政治和社会行为者来模拟来源偏见。结果显示,ChatGPT 在基准真实性评估任务中表现出较高的性能,在没有预训练的情况下,在不同语言之间平均评估准确性为 72%。Bing Chat 的准确率为 67%。我们观察到聊天机器人如何在高资源语言和低资源语言中评估提示,并且如何根据政治传播概念调整其评估,ChatGPT 提供的输出比 Bing Chat 更为细致入微。最后,我们发现聊天机器人在某些与真实性检测相关的任务中的性能因陈述的话题或归属的来源而有所变化。这些发现突显了基于 LLM 的聊天机器人在解决在线环境中不同形式的虚假信息方面的潜力,但也指出了由于特定因素(如提示语言或话题)导致其潜力实现方式的重大差异。
Dec, 2023
社交媒体的兴起使得虚假新闻的广泛传播成为可能,而虚假新闻被故意发布以传播错误信息和影响人们的信仰。本文介绍了一种新的方法,通过人机交互的方式改善自动化系统对社交媒体的表示质量,在真实事件中实验表明,在少量人机交互之后,系统检测新闻可信度的性能得到了提升。
Sep, 2023
通过将 ChatGPT 暴露在具有争议性的问题上,我们旨在了解其意识水平,以及现有模型是否存在社会政治和 / 或经济偏见。同时,我们还旨在探讨人工智能生成的答案与人类答案的对比情况。通过使用社交媒体平台 Kialo 创建的数据集来进行探索。我们的研究结果表明,尽管 ChatGPT 的以前版本在争议性话题上存在重要问题,但最近的版本 (gpt-3.5-turbo) 在多个知识领域中不再表现出明显的显性偏见,特别是在经济方面进行了很好的调节。然而,它仍然保持着一定程度的对右倾意识形态的隐性倾向,这表明需要从社会政治的观点增加更多的调节。在争议话题的领域知识方面,除了 “哲学” 类别外,ChatGPT 在跟上人类集体知识水平方面表现良好。最后,我们发现与人类答案相比,Bing AI 的信息来源在倾向中立方面略有增加。我们的所有分析都具有普遍适用于其他类型的偏见和领域。
Aug, 2023
通过建立新的数据集并使用九个大语言模型,本研究研究了人工撰写文章和机器生成文章之间的性质变化以及政治偏见的检测,结果显示基准模型和经过调整的模型之间存在显著差异,并且大语言模型在分类器角色中也显示出政治偏见,为进一步研究大语言模型政治偏见及其影响提供了一个基础。
Jun, 2024
研究发现,随着大型语言模型(LLM)的普及,越来越多的新闻网站开始利用它们生成文章,导致合法网站的 factual 准确性不断下降,不法新闻网站可以利用这些 LLM 大量制造虚假信息。通过对 3074 家不良媒体和主流新闻网站的 12.91 百万篇文章进行分类与研究,发现在 2022 年 1 月 1 日至 2023 年 4 月 1 日期间,主流网站的合成新闻文章相对数量增加了 79.4%。而不良网站的增幅则高达 342%,同时还有所关注的是,ChatGPT 发布后,小型网站和不良媒体的合成文章数量急剧增加,但在大型主流新闻网站上并没有相应的增长。最后,社交媒体 Reddit 中的数据显示,社交媒体用户在 2023 年 3 月比 2022 年 1 月与合成文章的互动更多。
May, 2023