党派语言使用中的道德共识与分歧
本文提出了一种基于NLP的框架,通过分析话题选择、表达方式、情感和言语作用等四个维度来研究社交媒体中的政治极化。作者通过现有的词汇方法量化这些方面,并提出了利用聚类技术识别分析主题的方法。作者将这些方法应用于对21起大规模枪击事件中的4.4M条推文进行研究,发现这些事件的讨论在政治上高度极化。结果表明,共和党更关注枪手和事件特定事实,而民主党则更关注受害者和政策变化的呼吁。同时,作者还发现了一些引导言论极化的表达方式,诸如“基础事实”以及“恐怖分子”和“疯子”这两个术语的不同使用。该研究深入了解了语言中的群体分裂表现方法,并提供了计算方法来研究这些现象。
Apr, 2019
我们提出了基于文本的框架,通过纵向语料库研究公众道德情感变化。我们的方法建立在语言使用可以反映人们对对与错的道德观念之上,并通过探索从时间序列的词嵌入中学习到的道德偏见来构建我们的方法论。我们的研究为应用自然语言处理技术对社会中的道德情感变化进行表征提供了机会。
Jan, 2020
研究新闻媒体的意识形态倾向与分化对于推进当代政治的理解至关重要。本文提出一种新颖而细粒度的意识形态研究方法,利用在左右方向上的立场来分析问题,并介绍了第一个描绘意识形态多维度构建并由政治科学家和语言学家进行标注的新闻文章文本数据集。通过控制作者立场,我们的方法可以量化地测量并研究多维度的意识形态距离与变化。本文进一步提出了基于模型的意识形态预测,这与基于立场的检测是一个挑战性的研究任务。
Jun, 2021
利用社区语言模型,研究政治言论语言化的分歧,通过观察群体在社交媒体中的表达,详细分析不同派别的观点,并且发现了相对于其他方法更高的对比度。
Sep, 2022
本文采取人工辅助机器学习框架,针对具有代表性的3个主流媒体倾向组(左,中,右)在2014年至今发布的2.2万份手动标记和180万份机器标记的新闻标题进行了超党派新闻标题检测的数据集开发,并在外部验证集上取得了0.84的准确度和0.78的F1得分;针对新闻标题中的党派性进行了计算分析,发现右翼媒体倾向于使用比例更高的超党派标题;通过逻辑回归模型和Shapley值确定了几个主题,并应用基于词库的语言分析工具对每个主题的标题进行了分析,发现左派、中派和右派媒体在外交、政治和社会问题方面的语言差异逐渐减小。
Jan, 2023
本研究分析近十年来 CNN 和福克斯新闻的关闭字幕及 Twitter 上语篇信息,探讨语言表述在电视和社交媒体之间的关系,研究结果表明不同播出平台的语义极化现象与趋势出现了较大的差异,尤其是 2016 年之后,两个频道的讨论话题在语义上的差异越来越显著,这种语言上的分化在很大程度上塑造了 Twitter 上的语义互动。
Jan, 2023
通过使用大规模语言模型(LLMs)来准确解读和预测政治偏见在社交媒体平台上充斥的政治性讨论,本研究创新性地采用了一个指导调整的LLM,以反映一系列政治意识形态。我们提出了一个综合的分析框架,包括党派偏见差异评估和党派倾向预测,以评估模型在立场、情绪和道德基础等方面与现实政治意识形态保持一致。研究发现模型在捕捉情绪和道德细微差别方面的有效性,但在立场检测方面存在一些挑战,突显了NLP工具在政治敏感环境中精细化和改进的复杂性和潜力。此研究通过展示LLMs中细致的政治理解的可行性和重要性,特别适用于需要敏锐意识到政治偏见的应用,为该领域做出了重要贡献。
Nov, 2023
研究考察了政治话题上的分歧是否与语言使用的独特模式有关,收集了 Reddit 上关于堕胎辩论的总共145,832条评论,分析了 r/prolife 和 r/prochoice 的子版块社群中的语言使用。通过考虑道德基础理论,分析了三种词汇模式,包括计算道德基础词典中词汇项目的比例频率,创建 n-gram 模型以揭示各立场群体常用的词汇搭配,以及使用潜在狄利克雷分配来识别语料库数据中的主题结构。研究结果表明,道德词汇的使用与对堕胎的立场相关联。
Jun, 2024