从非政治内容推断政治倾向:《Top Gear》还是《黑镜》?
研究发现,使用社交媒体平台的用户只需发表 13 篇与社会相关的帖子即可预测其政治取向,作者通过创新的半自动化方法来发现用户的政治倾向,并公开了波兰的 POLiTweets 数据集,以研究多党制的政治倾向和领域转移等问题。
Jun, 2022
通过使用新闻媒体偏见和帖子内容来标记社交媒体帖子的两种启发式方法,以及与随机抽取的人工标注数据集进行比较,我们展示了当前机器学习模型在预测社交媒体帖子的政治倾向方面的改进性能,采用传统的监督学习和少样本学习设置。
Nov, 2023
通过使用大规模语言模型(LLMs)来准确解读和预测政治偏见在社交媒体平台上充斥的政治性讨论,本研究创新性地采用了一个指导调整的 LLM,以反映一系列政治意识形态。我们提出了一个综合的分析框架,包括党派偏见差异评估和党派倾向预测,以评估模型在立场、情绪和道德基础等方面与现实政治意识形态保持一致。研究发现模型在捕捉情绪和道德细微差别方面的有效性,但在立场检测方面存在一些挑战,突显了 NLP 工具在政治敏感环境中精细化和改进的复杂性和潜力。此研究通过展示 LLMs 中细致的政治理解的可行性和重要性,特别适用于需要敏锐意识到政治偏见的应用,为该领域做出了重要贡献。
Nov, 2023
社交媒体用户通过与其他用户的互动、自发声明或参与网络社区表达其政治偏好,因此像 Twitter 这样的社交网络是研究计算科学方法在政治学习推理方面的宝贵数据源。本研究聚焦于西班牙的三个多样化地区(巴斯克地区、加泰罗尼亚和加利西亚),探索用于分析不断演变和复杂的政治格局所需的多党分类的各种方法,并将其与二元左右派方法进行比较。我们采用两步法,通过从转发中获取的无监督用户表示来进行政治倾向检测。对于由标记用户及其互动组成的新收集和筛选数据集的全面实验证明,将关系嵌入作为政治意识形态检测的表示方法,在有限的训练数据下,在二元和多党框架中都具有有效性。最后,数据可视化展示了关系嵌入捕捉复杂的组内和组间政治共鸣的能力。
Jun, 2024
利用定量框架和流程系统地调查大型语言模型的政治取向,研究结果显示在八个极化话题中,当用户查询涉及职业、种族或政治取向时,大型语言模型倾向于提供与自由派或左倾观点更为接近的回答,而不是保守派或右倾观点。为了避免这些模型提供政治化的回答,用户在构建查询时应谨慎,并选择中立的提示语言。
Mar, 2024
本文提出了一个启发式方法来将社交媒体帖子分类为五个不同的政治倾向类别,通过在 Twitter 和 Gab 这两个具有不同政治意识形态的社交媒体数据集上利用现有时间序列预测模型,我们的工作旨在为预测社交媒体平台中的政治偏见的挑战和机会提供启示,最终要为在数字领域减轻政治偏见的负面影响开发更有效的策略铺平道路。
Sep, 2023
对个人化的大型语言模型输出进行用户政治倾向性的引导,发现左倾用户更容易接收到对左派政界人物和媒体机构的正面评价,而右倾用户则更容易接收到对右派实体的正面评价。这种个人化模式会带来情感极化和过滤泡沫的风险。
Oct, 2023
利用可靠的外部数据资源学习新闻文章的公正表示,提出了一种知识注入的深度学习模型,旨在预测新闻文章的政治倾向,解决了现有学习模型在模型训练中受到新闻发布者的政治偏见影响的问题,从而消除了算法政治偏见,并在准确性方面优于基线方法,可达到 73% 的准确率。
Sep, 2023
美国约四分之一的成年人定期通过 YouTube 获取新闻内容。然而,尽管该平台上存在大量政治内容,但迄今为止还没有提出可以识别 YouTube 视频政治倾向的分类器。为了填补这一空白,我们提出了一种基于 Google 的语言模型 Bert 的新型分类器,仅通过视频标题将 YouTube 视频分为六类:极左、左派、中间、反唤醒、右派和极右。我们使用一个公共数据集中的 1000 万个 YouTube 视频标题(涵盖各种类别)来训练和验证所提出的分类器。我们将分类器与使用相同数据集训练的几种替代算法进行了比较,结果显示我们的分类器在准确性(75%)和 F1 分数(77%)方面都达到了最高水平。为了进一步验证分类性能,我们从包括 Fox News 和 New York Times 在内的多家知名新闻机构的 YouTube 频道收集视频,并将我们的分类器应用于它们的视频标题。在绝大多数情况下,预测的政治倾向与新闻机构相匹配。
Feb, 2024