使用大型语言模型模拟社交媒体,评估替代新闻订阅算法
社交媒体平台在全球交流中起着至关重要的作用,但在地缘政治敏感地区经常受到严格监管。本研究提出了一种基于大型语言模型的多代理模拟框架,用于探索在受监管的社交媒体环境中用户语言的演变。研究发现,大型语言模型能够模拟受限环境中的细致语言动态和交互情况,在演化过程中不断改进对监管的回避和信息准确性,并且发现不同情境下的语言模型代理采用不同的策略。
May, 2024
准确模拟人的观点动态对于理解各种社会现象至关重要,包括极化和误信息传播。我们提出了一种基于大型语言模型的人口多智能体模拟观点动态的新方法。我们的发现揭示出语言模型智能体存在对准确信息的固有偏差,导致在科学现实中产生共识。然而,该偏差限制了模拟对气候变化等问题持有抵制观点的个体。在通过启动工程引入确认偏见后,我们观察到观点分裂的情况与现有的多智能体研究一致。这些见解突显了在该领域中大型语言模型智能体的前景和局限,并提出了未来发展路径:通过与真实世界的话语相结合,完善语言模型,以更好地模拟人类信念的演变。
Nov, 2023
在 Mastodon 社交媒体平台上,我们使用了 “LLMs Among Us” 实验框架构建了 10 个角色来研究大型语言模型的潜力和威胁,发现参与者只有 42% 的准确率能识别出其他用户的真实性。此外,我们还发现角色的选择对于人的感知影响比主流大型语言模型的选择更大。
Feb, 2024
基于大型语言模型(LLM)开发在线社交网络的应用程序是具有挑战性的,并且在研究界中报道相对较少。本研究将 LLM 应用程序分为三类:知识任务、娱乐任务和基础任务,并提供了相应的挑战、解决方案和经验教训。据我们所知,这是第一篇关于将 LLM 应用于社交网络开发的综合性论文。
Jan, 2024
大规模语言模型与基于代理的仿真的整合对于理解复杂社会系统具有变革潜力,本文探讨了系统开发 LLM 增强的社会仿真的架构和方法,并讨论了该领域的潜在研究方向。结论表明,将 LLM 与基于代理的仿真相结合为研究人员和科学家提供了强大的工具集,能够生成更细致、逼真和全面的复杂系统和人类行为模型。
May, 2024
社交网络数据的广泛增长为人类行为的广泛数据驱动型探索开辟了前所未有的机遇。然而,建模大规模社交网络数据面临计算挑战。为了应对这些挑战,我们提出了一种专门用于建模社交网络数据的创新方法,并结合了大型语言模型的功能。我们在七个真实世界的社交网络数据集上进行了彻底评估,并展示了其在计算社会科学研究中的适用性。
Dec, 2023
社交媒体影响力竞选对公共话语和民主构成重大挑战,传统检测方法因社交媒体的复杂性和动态性而力不从心。本文提出了一种新颖的检测方法,利用大型语言模型(LLMs)结合用户元数据和网络结构。通过将这些元素转化为文本格式,我们的方法能够有效处理多语言内容并适应恶意竞选行为者不断变化的策略。通过在多个数据集上进行严格测试,我们验证了模型的有效性,并展示了其在识别影响力竞选方面的卓越性能。本研究不仅提供了一个强大的检测工具,而且为未来改进社交媒体影响策略的快速演变奠定了基础。
Nov, 2023
基于大型语言模型的虚假新闻传播模拟框架研究了虚假新闻传播的趋势和控制,揭示了与话题相关性和个体特征相关的传播模式,并评估了各种干预策略的效果和成本,证明了大型语言模型在打击虚假新闻方面的重要性和潜力。
Mar, 2024
近期自然语言处理的进展,特别是大型语言模型(LLMs)的出现,为构建精确复制人类行为的计算模拟提供了令人兴奋的可能性。然而,LLMs 是复杂的统计学习器,缺乏直接的演绎规则,因此容易产生意想不到的行为。本研究突出了 LLMs 在模拟人类互动方面的局限性,特别关注 LLMs 在模拟政治辩论方面的能力。我们的发现表明,尽管被指示从特定的政治角度进行辩论,LLM 代理倾向于符合模型固有的社会偏见。这种倾向导致了行为模式的偏离,似乎偏离了人类之间已经确立的社会动力学规律。我们使用了一种自动自我微调方法来强化这些观察结果,该方法使我们能够操纵 LLM 内的偏见,并展示代理随后与改变后的偏见保持一致。这些结果强调了进一步研究的必要性,以开发帮助代理克服这些偏见的方法,是创造更现实模拟的关键一步。
Feb, 2024
社交媒体是多模态信息交流的中心,包括文本、图片和视频,这对机器来理解在线空间中的信息或情感相关的交互构成了挑战。本文介绍了 MM-Soc,一个综合性基准,旨在评估多模态大型语言模型对多模态社交媒体内容的理解能力。通过我们对四个开源多模态大型语言模型的十个规模变体的详尽评估,我们发现了重要的性能差异,突出了模型在社交理解能力方面的改进需求。
Feb, 2024