新闻文章中的政治偏见量化
本研究提出了一种框架来量化搜索系统中源自不同来源的偏见,并将其应用于 Twitter 上与政治相关的查询,发现无论是输入数据还是排名系统都会显著地在搜索结果中产生不同程度和不同方式的偏见,并讨论了这些偏见的后果以及社交媒体搜索系统界面中信号偏见的可能机制。
Apr, 2017
利用可靠的外部数据资源学习新闻文章的公正表示,提出了一种知识注入的深度学习模型,旨在预测新闻文章的政治倾向,解决了现有学习模型在模型训练中受到新闻发布者的政治偏见影响的问题,从而消除了算法政治偏见,并在准确性方面优于基线方法,可达到 73% 的准确率。
Sep, 2023
本研究利用一个新的、基于 6964 篇新闻文章的辅助指标标签的语料库,开发了一种神经模型对新闻文章中的政治偏见和不公平进行分析,并从单词到整篇文章的不同层次的文本粒度发现了深刻的偏见模式。
Oct, 2020
本文探讨新闻文章中的政治意识形态或偏见的预测任务,提出了一个具有挑战性的实验设置并收集了大量的数据集,在建模方面使用了敌对媒体适应和三元组损失等策略,并在文章级别上加入了源背景信息,实验结果表明这种方法在这种具有挑战性的情况下比使用先进的预先训练转换器有相当大的改进。
Oct, 2020
通过分析 500k 篇美国在线新闻文章中存在的社会偏见类型,使用考虑了嵌入表示问题的多种算法以及 WEAT,比较了这些算法在新闻文章中训练的模型所表示的期望社会偏见,结果发现标准偏差检测方法与心理学知识并不一致,而新提出的算法虽然减轻了这种差距,但仍然无法完全匹配这些文献。
Nov, 2022
本文提出了一个启发式方法来将社交媒体帖子分类为五个不同的政治倾向类别,通过在 Twitter 和 Gab 这两个具有不同政治意识形态的社交媒体数据集上利用现有时间序列预测模型,我们的工作旨在为预测社交媒体平台中的政治偏见的挑战和机会提供启示,最终要为在数字领域减轻政治偏见的负面影响开发更有效的策略铺平道路。
Sep, 2023
研究表明,媒体的政治偏见会影响受众的政治信仰及投票行为。通过三个手动注释的数据集及不同的可视化策略测试,结果表明手动注释偏见的可视化比框架可视化更有效。通过多层次模型,可以发现记者的偏见与文章的政治极端性和公正性有显著联系。
May, 2021
该论文介绍了一种几乎没有人为干预的流程,用于抓取和检测大学报纸档案中的偏见。该论文介绍了一种框架,用于从自动化工具无法获取数据的复杂档案网站中进行抓取,并生成了 14 份学生论文的数据集,总共含有 23,154 个条目。该数据还可以通过关键词查询,通过比较大型语言模型摘要和原始文章的情绪来计算偏见。该方法具有较少的比较性,比重建偏见更少地需要有标签的数据。结果基于具有政治色彩的词汇以及控制词汇来计算,以展示如何得出结论。这种完整的方法有助于从学生报纸来源中提取细微的见解,且假设和分类最少,为更客观地理解偏见铺平了道路。
Sep, 2023
本文提出了一种基于推文训练的两步分类方案,用于检测长文本中的政治偏见。该方案包括通过推特数据训练中性检测器,用于去除文章中的中性句子以实现意见集中,并提高了文章的预测准确性。
Sep, 2019