使用属性感知词向量实现新闻文章的政治去极端化
通过使用语言模型分析美国政治体系中的政治极化,我们提供了对候选人立场的分析信息,以帮助选民了解其在经济、医疗保健、教育和其他社会问题上的观点,并进一步分析候选人的数据集和使用 “Longformer” 这样更强大的方式,找到每个候选人在其政治观点和背景上的最近邻。
Jan, 2023
通过替换、插入和删除等三种扰动方法以及基于上下文的掩码语言模型,在保持核心语义的同时,最大程度地提高目标新闻方面的所需情感分数,并通过波束搜索算法降低情感极性,实现对情感操纵的类别纠正,从而提供更客观的新闻报道并抑制媒体情感语言偏见。
Feb, 2024
研究通过分析 Reddit 社群和新闻媒体等大规模真实语言使用数据,使用词嵌入模型发现了政治性语言中存在的情感分化模式以及与七个政治话题相关的词语的语义关联,揭示了跨党派界限的道德联想差异,这些结果强调了虽然在政治谱系上有着共享的道德理解,但仍然存在着塑造党派语言并潜在加剧政治极化的一致差异。
Oct, 2023
本文提出了一种基于 NLP 的框架,通过分析话题选择、表达方式、情感和言语作用等四个维度来研究社交媒体中的政治极化。作者通过现有的词汇方法量化这些方面,并提出了利用聚类技术识别分析主题的方法。作者将这些方法应用于对 21 起大规模枪击事件中的 4.4M 条推文进行研究,发现这些事件的讨论在政治上高度极化。结果表明,共和党更关注枪手和事件特定事实,而民主党则更关注受害者和政策变化的呼吁。同时,作者还发现了一些引导言论极化的表达方式,诸如 “基础事实” 以及 “恐怖分子” 和 “疯子” 这两个术语的不同使用。该研究深入了解了语言中的群体分裂表现方法,并提供了计算方法来研究这些现象。
Apr, 2019
利用 “翻译 - 检索 - 翻译” 策略引入推理通识知识,然后将其整合到多语言预训练语言模型中以预测政治极性,证明我们的框架不受所使用的模型的影响,并具有潜力为新闻从业者、社会科学家、新闻制作人员和消费者带来好处。
Dec, 2022
本文探讨新闻文章中的政治意识形态或偏见的预测任务,提出了一个具有挑战性的实验设置并收集了大量的数据集,在建模方面使用了敌对媒体适应和三元组损失等策略,并在文章级别上加入了源背景信息,实验结果表明这种方法在这种具有挑战性的情况下比使用先进的预先训练转换器有相当大的改进。
Oct, 2020
本文提出了一种基于推文训练的两步分类方案,用于检测长文本中的政治偏见。该方案包括通过推特数据训练中性检测器,用于去除文章中的中性句子以实现意见集中,并提高了文章的预测准确性。
Sep, 2019
本研究分析近十年来 CNN 和福克斯新闻的关闭字幕及 Twitter 上语篇信息,探讨语言表述在电视和社交媒体之间的关系,研究结果表明不同播出平台的语义极化现象与趋势出现了较大的差异,尤其是 2016 年之后,两个频道的讨论话题在语义上的差异越来越显著,这种语言上的分化在很大程度上塑造了 Twitter 上的语义互动。
Jan, 2023
本文探讨了一种通过比较相关单词上下文来自动识别有偏见语言的方法,即使用在左翼和右翼新闻机构上的词嵌入模型训练,结果表明此方法是有效的。
Dec, 2021
通过使用新闻媒体偏见和帖子内容来标记社交媒体帖子的两种启发式方法,以及与随机抽取的人工标注数据集进行比较,我们展示了当前机器学习模型在预测社交媒体帖子的政治倾向方面的改进性能,采用传统的监督学习和少样本学习设置。
Nov, 2023