现任/反对党的互动关系及意识形态相似性对政治宣言中情感的影响
本文研究政治家如何通过 Facebook 图片表达意识形态修辞,并通过深度学习技术在图片的左右(自由主义-保守主义)方向上预测共和党或民主党党派的倾向性。通过对政治家的性别、种族进行控制,我们的方法从单张图片准确度达到了59.28%,从多张图片(多达 150 张)汇总分数后达到82.35%。研究还发现,保守派倾向于使用更多支持现状政治制度和维护等级制度的图像,包含来自主流社会群体的个人,展示更大的幸福感。
Jul, 2019
本文从自然语言处理的角度对政治话语任务进行了计算建模,提出了6861个Reddit评论的新数据集Us vs.Them,并根据民粹主义态度建立了第一个大规模计算模型。该研究探讨了民粹主义心态与社会群体之间的关系,以及通常与此类态度相关的一系列情绪。通过设置两项与民粹主义态度相关的任务以及展示情感和群体识别作为辅助任务的多任务学习模型的基线,我们阐述了情感和群体识别作为辅助任务的重要性。
Jan, 2021
研究新闻媒体的意识形态倾向与分化对于推进当代政治的理解至关重要。本文提出一种新颖而细粒度的意识形态研究方法,利用在左右方向上的立场来分析问题,并介绍了第一个描绘意识形态多维度构建并由政治科学家和语言学家进行标注的新闻文章文本数据集。通过控制作者立场,我们的方法可以量化地测量并研究多维度的意识形态距离与变化。本文进一步提出了基于模型的意识形态预测,这与基于立场的检测是一个挑战性的研究任务。
Jun, 2021
本研究分析希腊,西班牙和英国国会议员的Twitter帖子,通过情感分析探索这些政治家的帖子是否遵循推广负面情绪以获得更高转发量的趋势,结果表明政治家的负面情绪的推文在最近时间内更广泛传播,突显情感和受欢迎程度的交集方面的有趣趋势。
Feb, 2022
通过对一系列在线新闻中18,627名美国政客的语言进行心理语言学分析,研究发现自2008年至2020年期间,美国政治家用语的语气从一直下降到2016年大选前快速而持久地增加,特别是特朗普的重要演讲对此贡献了很大程度的影响,这表明特朗普的竞选活动是导致美国政治话语变得更加消极的重要因素之一。
Jul, 2022
通过对政治宣言的大规模数据库进行研究,我们展示了领域转移在地理位置、语言、时间和体裁等方面的潜力,以及细调的变压器模型在领域内的分类性能。此外,我们观察到不同来源国家的政治宣言存在(部分)显著差异,即使这些国家共享一种语言或文化背景。
Jul, 2023
研究通过分析Reddit社群和新闻媒体等大规模真实语言使用数据,使用词嵌入模型发现了政治性语言中存在的情感分化模式以及与七个政治话题相关的词语的语义关联,揭示了跨党派界限的道德联想差异,这些结果强调了虽然在政治谱系上有着共享的道德理解,但仍然存在着塑造党派语言并潜在加剧政治极化的一致差异。
Oct, 2023
通过使用大规模语言模型(LLMs)来准确解读和预测政治偏见在社交媒体平台上充斥的政治性讨论,本研究创新性地采用了一个指导调整的LLM,以反映一系列政治意识形态。我们提出了一个综合的分析框架,包括党派偏见差异评估和党派倾向预测,以评估模型在立场、情绪和道德基础等方面与现实政治意识形态保持一致。研究发现模型在捕捉情绪和道德细微差别方面的有效性,但在立场检测方面存在一些挑战,突显了NLP工具在政治敏感环境中精细化和改进的复杂性和潜力。此研究通过展示LLMs中细致的政治理解的可行性和重要性,特别适用于需要敏锐意识到政治偏见的应用,为该领域做出了重要贡献。
Nov, 2023
语言模型(LMs)代表某些社会群体的观点较好,可能在内容管理和仇恨言论检测等主观任务上发挥作用。本研究旨在探讨LMs如何代表不同观点,现有研究主要关注定位对齐,即模型模拟不同群体(如自由派或保守派)的观点和立场的接近程度,而人类交流还包含情感和道德维度。我们定义了情感对齐问题,度量了LMs情感和道德色彩在代表不同群体方面的表现。通过比较36个LMs生成的回应与Twitter消息的情感对比,我们观察到LMs与意识形态群体都存在显著的不对齐问题。这种不对齐超过了美国的党派分歧。即使将LMs定向于特定的意识形态观点,不对齐问题和模型的自由倾向仍然存在,暗示LMs内存在系统偏见。
Feb, 2024
介绍了一个关于政治取向和权力地位识别的数据集,该数据集从ParlaMint中派生而来,ParlaMint是29个国家和地区议会的一组可比较的国会演讲语料库。我们介绍了该数据集,解释了在创建过程中的一些选择原则,在数据集上提供了统计数据,并利用一个简单的分类器对政治取向在左右轴线上的预测结果以及权力地位识别的基线结果进行了介绍,即区分执政联盟党派成员和反对党派成员发表的演讲。
May, 2024