自主生成 AI 代理在回音室下的极化
本文研究了社交媒体上自我封闭和观点极化的机制,通过引入激进化动力学模型,在不同的主题和社交状态下发现了社交影响和话题争议度对极化的影响,对社交媒体上自我封闭和观点极化的机制提出了新的见解。
Jun, 2019
本研究通过 Social Mirror 流行网络可视化工具在 Twitter 上的随机试验,发现建议用户关注相反政治意识形态的帐户能够减少用户对自己社交网络联系的政治同质性的信念,但仍可在治疗后一周增加他们的联系多样性,而增强其对 Twitter 联系的政治同质性的信念的维持则会使用户在治疗后 2-3 周的联系多样性逐渐减少。
Mar, 2018
研究表明,不同和相互冲突的社区由显示相似心理特点的用户填充,科学和阴谋主义回响室中的主导个性模型相同,并且回响室内的稳定略微改变了用户的心理特征。
Jun, 2016
通过创建和描述 ChatGPT 和 Bard 响应的数据集,我们发现在美国高度极化的话题中,ChatGPT 和 Bard 倾向于左倾,Bard 更可能围绕极化话题提供响应,且对争议话题的限制较少,倾向于提供全面且更像人类的回答。利益相关者可以利用我们的发现来减少自然语言处理模型中的错误或极化响应。
Jul, 2023
本文研究了社交媒体上的政见共鸣箱现象,通过比较社交媒体用户分享和接收内容的政治倾向度量,发现 Twitter 用户往往暴露于认同自己政见的政治观点之中,并探讨了试图打破共鸣箱的网络中介者的困境与关键色彩,同时研究了消费多元观点但产出片面政治观点的 “关键人物” 在共鸣箱形成中的作用,并应用了这些发现来预测社交媒体上的分裂者和关键人物。
Jan, 2018
本文提出了一个基于 Monte Carlo 模拟的框架来评估人们推荐算法对意见演变的影响,结果发现人们推荐算法确实会导致峡谷效应显著增加,但仅在网络中有相当数量的同质性的情况下发生。
Dec, 2021
本文探讨了在 Facebook 平台上科学和阴谋论社群的演化和情感行为对社群动态的影响。研究结果显示,用户对社群的参与程度和使用者情感行为对社群的演化有显著影响,越参与社群的使用者更容易表现出负面情绪,并且更活跃的用户比不活跃的用户更容易表现出负面情绪。
Jun, 2016
通过对 Reddit 上 2016 年美国总统选举辩论的研究,我们发现用户之间存在交错的政治对话,与传统回音室观点相反,并探讨了可能的社会人口学影响。
Feb, 2021
对个人化的大型语言模型输出进行用户政治倾向性的引导,发现左倾用户更容易接收到对左派政界人物和媒体机构的正面评价,而右倾用户则更容易接收到对右派实体的正面评价。这种个人化模式会带来情感极化和过滤泡沫的风险。
Oct, 2023
通过将 ChatGPT 暴露在具有争议性的问题上,我们旨在了解其意识水平,以及现有模型是否存在社会政治和 / 或经济偏见。同时,我们还旨在探讨人工智能生成的答案与人类答案的对比情况。通过使用社交媒体平台 Kialo 创建的数据集来进行探索。我们的研究结果表明,尽管 ChatGPT 的以前版本在争议性话题上存在重要问题,但最近的版本 (gpt-3.5-turbo) 在多个知识领域中不再表现出明显的显性偏见,特别是在经济方面进行了很好的调节。然而,它仍然保持着一定程度的对右倾意识形态的隐性倾向,这表明需要从社会政治的观点增加更多的调节。在争议话题的领域知识方面,除了 “哲学” 类别外,ChatGPT 在跟上人类集体知识水平方面表现良好。最后,我们发现与人类答案相比,Bing AI 的信息来源在倾向中立方面略有增加。我们的所有分析都具有普遍适用于其他类型的偏见和领域。
Aug, 2023