发展自然语言理解模型以描述有线新闻偏见
新闻报道中的偏见表现和影响是社会科学的核心主题,近年来在自然语言处理领域受到了越来越多的关注。本研究综述了社会科学的方法,并将其与自然语言处理领域中用于分析媒体偏见的典型任务表述、方法和评估指标进行了对比。我们讨论了开放性问题,并提出了可能的研究方向,以填补理论与预测模型之间及其评估之间的差距。这些包括模型透明度、考虑文档外部信息以及跨文档推理而非单一标签的分配。
Sep, 2023
该论文介绍了一种几乎没有人为干预的流程,用于抓取和检测大学报纸档案中的偏见。该论文介绍了一种框架,用于从自动化工具无法获取数据的复杂档案网站中进行抓取,并生成了 14 份学生论文的数据集,总共含有 23,154 个条目。该数据还可以通过关键词查询,通过比较大型语言模型摘要和原始文章的情绪来计算偏见。该方法具有较少的比较性,比重建偏见更少地需要有标签的数据。结果基于具有政治色彩的词汇以及控制词汇来计算,以展示如何得出结论。这种完整的方法有助于从学生报纸来源中提取细微的见解,且假设和分类最少,为更客观地理解偏见铺平了道路。
Sep, 2023
研究表明,媒体的政治偏见会影响受众的政治信仰及投票行为。通过三个手动注释的数据集及不同的可视化策略测试,结果表明手动注释偏见的可视化比框架可视化更有效。通过多层次模型,可以发现记者的偏见与文章的政治极端性和公正性有显著联系。
May, 2021
通过研究基于高斯混合模型的概率分布,发现频率和位置对于文章层面的媒体偏见检测至关重要,其次是其精确的时序,相较于只依赖于低水平词汇信息分布的特征和神经文本分类方法。
Oct, 2020
本研究利用一个新的、基于 6964 篇新闻文章的辅助指标标签的语料库,开发了一种神经模型对新闻文章中的政治偏见和不公平进行分析,并从单词到整篇文章的不同层次的文本粒度发现了深刻的偏见模式。
Oct, 2020
使用真实新闻机构的评级,我们创建了一份多语言新闻语料库,其中包括粗略的立场注释(左翼和右翼)以及自动提取的主题注释。我们展示了使用这些数据训练的分类器能够识别英语、德语、西班牙语和加泰罗尼亚语中大部分未见过的报纸的编辑立场。我们随后将这些分类器应用于 ChatGPT 和 Bard 在四种语言中撰写的 101 篇类似报纸文章,并观察到,类似传统报纸,ChatGPT 的编辑立场会随着时间而演变,并且作为一个数据驱动的系统,生成的文章在不同语言中的立场也有所不同。
Oct, 2023
本文旨在研究预测新闻媒体报道的真实性和偏见。通过大量的新闻网站以及一些从文章、维基百科页面、推特账户、网址结构和流量信息中得出的特征,实验表明本方法相比基线有较显著的性能提升,且各特征类型都至关重要。
Oct, 2018
本文提出了一种基于多任务深度学习训练的 Transformer 架构,使用六个与偏见相关的数据集来解决媒体偏见检测问题,取得了较好的效果。
Nov, 2022