HearHere: 基于人工智能的网页系统减轻新闻消费中的回音室现象
本文通过 11.5 年的数据分析,从知识图谱角度证明了特定信息传播导致回音室的形成不仅与集体拓扑结构有关,还与个体信息消费方式相关,并且信息源的相对‘内部’中立性及对少数实体的极化态度可能引发听众世界观的根本差异性。
Apr, 2024
本文研究如何检测能够有效反驳特定论点而非只是特定立场的文章,以解决社交媒体时代如何应对信息封锁和假新闻的问题。针对辩论演讲,给定一个演讲稿,我们的目标是从一组与其立场相反的演讲中找出直接反驳它的演讲。通过研究此问题,我们提供了一个包含 3,685 个数据样本(英文)的数据集,并探讨了几种算法。尽管某些算法表现成功,但都未达到人类专家的水平,这表明此方向存在进一步研究的空间。
May, 2020
在线社交网络中的回音室问题、极化以及 AI 代理人的意见转变是本研究的主要内容。通过实验证明 ChatGPT 等语言模型在回音室环境中容易产生极化,并发现个体特质等因素对其极化倾向有显著影响。需监控这些影响因素以防止 AI 代理人的极化。
Feb, 2024
本文研究了社交媒体上的政见共鸣箱现象,通过比较社交媒体用户分享和接收内容的政治倾向度量,发现 Twitter 用户往往暴露于认同自己政见的政治观点之中,并探讨了试图打破共鸣箱的网络中介者的困境与关键色彩,同时研究了消费多元观点但产出片面政治观点的 “关键人物” 在共鸣箱形成中的作用,并应用了这些发现来预测社交媒体上的分裂者和关键人物。
Jan, 2018
本研究通过 Social Mirror 流行网络可视化工具在 Twitter 上的随机试验,发现建议用户关注相反政治意识形态的帐户能够减少用户对自己社交网络联系的政治同质性的信念,但仍可在治疗后一周增加他们的联系多样性,而增强其对 Twitter 联系的政治同质性的信念的维持则会使用户在治疗后 2-3 周的联系多样性逐渐减少。
Mar, 2018
本文提出了一个基于 Monte Carlo 模拟的框架来评估人们推荐算法对意见演变的影响,结果发现人们推荐算法确实会导致峡谷效应显著增加,但仅在网络中有相当数量的同质性的情况下发生。
Dec, 2021
利用大型语言模型(LLM)驱动的对话式搜索系统已经被数亿人使用,并被认为相较于传统搜索带来许多优势。然而,尽管几十年的研究和公众讨论揭示了搜索系统在增加选择性暴露和形成回声室方面的风险 —— 限制了对多样观点的接触,导致意见极化,对于 LLM 驱动的对话式搜索的这种风险了解甚少。我们进行了两个实验来调查:1)LLM 驱动的对话式搜索是否以及如何增加选择性暴露,相较于传统搜索;2)持有与用户观点一致或挑战用户观点的偏见的 LLM 是否会改变这种影响。总体而言,我们发现参与者在使用 LLM 驱动的对话式搜索时更容易查询偏见信息,而偏见强化的 LLM 则加剧了这种偏见。这些结果对 LLM 和对话式搜索系统的发展以及管理这些技术的政策具有重要的影响。
Feb, 2024
研究表明,媒体的政治偏见会影响受众的政治信仰及投票行为。通过三个手动注释的数据集及不同的可视化策略测试,结果表明手动注释偏见的可视化比框架可视化更有效。通过多层次模型,可以发现记者的偏见与文章的政治极端性和公正性有显著联系。
May, 2021
对个人化的大型语言模型输出进行用户政治倾向性的引导,发现左倾用户更容易接收到对左派政界人物和媒体机构的正面评价,而右倾用户则更容易接收到对右派实体的正面评价。这种个人化模式会带来情感极化和过滤泡沫的风险。
Oct, 2023