从怀疑到接受:模拟对假新闻态度的动态
社交媒体及其新闻推送算法对于提升构建性对话具有挑战性,本研究使用大型语言模型和基于代理模型的仿真来研究不同的新闻推送算法如何影响在线对话质量,发现新推送算法能够促进跨政治观点的建设性、非有害对话。
Oct, 2023
通过追踪来自不同文化背景的社交媒体平台,比如中国的微博和日本的 Twitter 等,我们发现虚假新闻在传播的早期阶段就与真实新闻有着不同的传播特征,并且通过识别信息传播的拓扑特性,可以提前检测社交媒体中的虚假新闻。
Mar, 2018
准确模拟人的观点动态对于理解各种社会现象至关重要,包括极化和误信息传播。我们提出了一种基于大型语言模型的人口多智能体模拟观点动态的新方法。我们的发现揭示出语言模型智能体存在对准确信息的固有偏差,导致在科学现实中产生共识。然而,该偏差限制了模拟对气候变化等问题持有抵制观点的个体。在通过启动工程引入确认偏见后,我们观察到观点分裂的情况与现有的多智能体研究一致。这些见解突显了在该领域中大型语言模型智能体的前景和局限,并提出了未来发展路径:通过与真实世界的话语相结合,完善语言模型,以更好地模拟人类信念的演变。
Nov, 2023
在当前数字化时代,社交平台上虚假信息的快速传播对社会福祉、公众信任和民主进程产生了重大挑战,影响着重要决策和公众舆论。为了应对这些挑战,自动化的虚假新闻检测机制的需求日益增长。本研究引入了 FactAgent,一种以主体性方式利用大型语言模型 (LLM) 进行虚假新闻检测的方法,将复杂的新闻真实性检查任务拆分为多个子步骤,LLM 可以使用内部知识或外部工具完成简单任务。FactAgent 在提高效率的同时,还提供透明的解释以及对虚假新闻检测推理过程的见解,具有高度的适应性,可以适用于各个领域的新闻验证。
Apr, 2024
在大语言模型 (LLMs) 时代,我们发现许多现有的假新闻检测器存在显著偏见,更容易将 LLMs 生成的内容标记为假新闻,而常常误将人类撰写的假新闻分类为真实。为了解决这个问题,我们引入了一种对抗训练与 LLMs 重写的真实新闻相结合的缓解策略,从而在人类和 LLMs 生成的新闻的检测准确性方面取得了显著的改进。为了进一步推动该领域的研究,我们发布了两个全面的数据集 “GossipCop++” 和 “PolitiFact++”,将经人工验证的文章与 LLMs 生成的假新闻和真实新闻相结合。
Sep, 2023
社交媒体平台在信息传播中起着重要作用,本研究旨在通过识别和分类新闻,解决社交媒体平台上虚假消息和不可验证事实的传播问题,提出了基于图模型的概率马尔可夫信息传播模型,并通过实验研究证明了其在准确性和检测时间方面优于现有的虚假信息检测算法。
Oct, 2023
本文研究了大型语言模型时代中的假新闻检测问题,发现仅训练于人工编写文章的检测器在检测机器生成的假新闻方面表现良好,但反之不成立。此外,由于检测器对机器生成的文本存在偏见,需要在训练集中使用比测试集中较低比例的机器生成新闻。基于我们的发现,我们提供了一个实用的策略来开发健壮的假新闻检测器。
Nov, 2023
通过情感分析比较真假新闻的语言使用,并考虑了社交媒体和在线新闻来源的虚假信息类型(宣传、谣言、点击草率和讽刺); 我们的实验表明,虚假信息在每种类型中都具有不同的情感模式,情感在欺骗读者方面发挥了关键作用; 基于此,我们提出了一个采用情感注入的 LSTM 神经网络模型来检测假新闻。
Aug, 2019
社交媒体的兴起使得虚假新闻的广泛传播成为可能,而虚假新闻被故意发布以传播错误信息和影响人们的信仰。本文介绍了一种新的方法,通过人机交互的方式改善自动化系统对社交媒体的表示质量,在真实事件中实验表明,在少量人机交互之后,系统检测新闻可信度的性能得到了提升。
Sep, 2023