NeuS: 用于减轻框架偏差的中立多新闻摘要
本研究利用一个新的、基于6964篇新闻文章的辅助指标标签的语料库,开发了一种神经模型对新闻文章中的政治偏见和不公平进行分析,并从单词到整篇文章的不同层次的文本粒度发现了深刻的偏见模式。
Oct, 2020
本文提出了一种新的多头分层注意力模型,通过考虑句子层面的语义和文档层级的修辞结构,有效地编码长文档的结构,从而实现了对新闻文章政治倾向的更为健壮和风格无关的检测,并证明了该方法的优越性和准确性。
Apr, 2023
该研究使用实体替换方法研究了新闻文章自动生成摘要中对政治家的描绘,发现抽取和生成式摘要模型中川普和拜登的政治偏见存在着差异,该系统性特征提供了未来研究偏见的框架。
May, 2023
媒体偏见检测需要综合多个新闻来源的信息,以句子级别的政治偏见检测为例,通过考虑上下文中的偏见而进行的任务被证明是一项具有挑战性的任务。我们提出了一种更加小心地搜索上下文的技术,采用偏见敏感和目标感知的数据增强方法,通过与BERT等预训练模型的结合,在著名的BASIL数据集上进行了综合实验,取得了58.15的F1得分,明显优于先前方法的最新偏见检测任务。
Oct, 2023
通过减少极化性输入文章间的极性差异,来降低造成政治极化的框架偏见,我们提出了一种新的损失函数,使模型能够在两个极性极端之间进行双向映射优化。实验证明,结合提出的极性损失函数的效果远优于基于BART的多文档摘要模型,尤其是在训练模型以最小化信息框架偏见(即选择性报道)的极性损失时。
Nov, 2023
多文档摘要是自动生成与同一主题相关的多个文档的简洁摘要的过程。本文提出了一个机器学习模型,从多个新闻文档中生成主题的简洁摘要,并设计成能够公正地从各个方面均等采样输入信息,即使大多数新闻来源倾向于一方。
Dec, 2023
通过对抽象摘要模型进行偏见定量化研究,并应用不同的模型和适应方法来总结社交媒体意见的任务,本研究发现大多数模型具有固有偏见。使用社交媒体文本摘要数据集并对比各种适应方法,发现调整较少的参数不如标准微调偏见较小;然而,用于微调的训练数据中的主题多样性至关重要。
Feb, 2024
本研究通过零-shot、少-shot和可解释性提示方法,考察了GPT-3.5 Turbo、GPT-4和Flan-T5模型在检测新闻标题中的框架偏见方面的性能,并强调可解释性设置对社会科学研究中框架偏见的重要性。
Feb, 2024
本研究探讨了大语言模型(LLMs)在生成新闻摘要时的政治中立性,尤其关注美国政治中的五个关键议题。通过分析20,344篇新闻文章,发现多款知名LLMs存在明显的亲民主党偏向,尤其在枪支管制和医疗保健上的偏差最为突出。这项研究在即将到来的US选举背景下,提醒社会关注算法对公共话语的影响。
Oct, 2024
本研究解决了在全球政党对立和两极化愈加严重的背景下,如何有效摘要不同政治观点的难题。提出了一种新颖的数据集和任务,通过评估不同模型的表现,发现尽管近期的模型如GPT-4o表现良好,仍然难以生成忠实于特定视角的摘要。研究结果显示,摘要的提取行为与输入文档的特征密切相关,具有重要的应用潜力。
Nov, 2024