阅读推文之间:解读相互连接的混合意识形态社群的立场
本文提出了一种基于NLP的框架,通过分析话题选择、表达方式、情感和言语作用等四个维度来研究社交媒体中的政治极化。作者通过现有的词汇方法量化这些方面,并提出了利用聚类技术识别分析主题的方法。作者将这些方法应用于对21起大规模枪击事件中的4.4M条推文进行研究,发现这些事件的讨论在政治上高度极化。结果表明,共和党更关注枪手和事件特定事实,而民主党则更关注受害者和政策变化的呼吁。同时,作者还发现了一些引导言论极化的表达方式,诸如“基础事实”以及“恐怖分子”和“疯子”这两个术语的不同使用。该研究深入了解了语言中的群体分裂表现方法,并提供了计算方法来研究这些现象。
Apr, 2019
本篇文章主要研究如何利用多任务多关系嵌入模型(TIMME)处理Twitter数据集中的意识形态探测分类问题,文章指出TIMME相比其他模型有更好的综合表现。
Jun, 2020
通过神经嵌入技术对 Reddit 14 年间 5.1B 评论的社区结构进行了研究,发现在 2016 年美国总统选举后,Reddit 出现了明显的政治极化,尤其是右翼用户的活动量增加导致的。个体级的极化是罕见的,政治极化可以通过考察单个用户的行为预测,可能因外部事件而发生。
Oct, 2020
研究新闻媒体的意识形态倾向与分化对于推进当代政治的理解至关重要。本文提出一种新颖而细粒度的意识形态研究方法,利用在左右方向上的立场来分析问题,并介绍了第一个描绘意识形态多维度构建并由政治科学家和语言学家进行标注的新闻文章文本数据集。通过控制作者立场,我们的方法可以量化地测量并研究多维度的意识形态距离与变化。本文进一步提出了基于模型的意识形态预测,这与基于立场的检测是一个挑战性的研究任务。
Jun, 2021
利用社区语言模型,研究政治言论语言化的分歧,通过观察群体在社交媒体中的表达,详细分析不同派别的观点,并且发现了相对于其他方法更高的对比度。
Sep, 2022
本研究分析近十年来 CNN 和福克斯新闻的关闭字幕及 Twitter 上语篇信息,探讨语言表述在电视和社交媒体之间的关系,研究结果表明不同播出平台的语义极化现象与趋势出现了较大的差异,尤其是 2016 年之后,两个频道的讨论话题在语义上的差异越来越显著,这种语言上的分化在很大程度上塑造了 Twitter 上的语义互动。
Jan, 2023
通过使用大规模语言模型(LLMs)来准确解读和预测政治偏见在社交媒体平台上充斥的政治性讨论,本研究创新性地采用了一个指导调整的LLM,以反映一系列政治意识形态。我们提出了一个综合的分析框架,包括党派偏见差异评估和党派倾向预测,以评估模型在立场、情绪和道德基础等方面与现实政治意识形态保持一致。研究发现模型在捕捉情绪和道德细微差别方面的有效性,但在立场检测方面存在一些挑战,突显了NLP工具在政治敏感环境中精细化和改进的复杂性和潜力。此研究通过展示LLMs中细致的政治理解的可行性和重要性,特别适用于需要敏锐意识到政治偏见的应用,为该领域做出了重要贡献。
Nov, 2023
通过使用新闻媒体偏见和帖子内容来标记社交媒体帖子的两种启发式方法,以及与随机抽取的人工标注数据集进行比较,我们展示了当前机器学习模型在预测社交媒体帖子的政治倾向方面的改进性能,采用传统的监督学习和少样本学习设置。
Nov, 2023