学习无偏见的新闻文章表征:一种融合知识的方法
本文探讨新闻文章中的政治意识形态或偏见的预测任务,提出了一个具有挑战性的实验设置并收集了大量的数据集,在建模方面使用了敌对媒体适应和三元组损失等策略,并在文章级别上加入了源背景信息,实验结果表明这种方法在这种具有挑战性的情况下比使用先进的预先训练转换器有相当大的改进。
Oct, 2020
本文提出了一种基于关注机制的多角度模型,利用文本、标题、内容以及链接结构等多种视角识别新闻文章所展现出的政治意识形态,实验证明该模型在自然语言处理的表示学习和网络科学中的进展方面,比现有的基线模型在 F1 得分上提高了 10 个百分点。
Sep, 2018
通过使用新闻媒体偏见和帖子内容来标记社交媒体帖子的两种启发式方法,以及与随机抽取的人工标注数据集进行比较,我们展示了当前机器学习模型在预测社交媒体帖子的政治倾向方面的改进性能,采用传统的监督学习和少样本学习设置。
Nov, 2023
通过使用大规模语言模型(LLMs)来准确解读和预测政治偏见在社交媒体平台上充斥的政治性讨论,本研究创新性地采用了一个指导调整的 LLM,以反映一系列政治意识形态。我们提出了一个综合的分析框架,包括党派偏见差异评估和党派倾向预测,以评估模型在立场、情绪和道德基础等方面与现实政治意识形态保持一致。研究发现模型在捕捉情绪和道德细微差别方面的有效性,但在立场检测方面存在一些挑战,突显了 NLP 工具在政治敏感环境中精细化和改进的复杂性和潜力。此研究通过展示 LLMs 中细致的政治理解的可行性和重要性,特别适用于需要敏锐意识到政治偏见的应用,为该领域做出了重要贡献。
Nov, 2023
通过建立新的数据集并使用九个大语言模型,本研究研究了人工撰写文章和机器生成文章之间的性质变化以及政治偏见的检测,结果显示基准模型和经过调整的模型之间存在显著差异,并且大语言模型在分类器角色中也显示出政治偏见,为进一步研究大语言模型政治偏见及其影响提供了一个基础。
Jun, 2024
通过分析 500k 篇美国在线新闻文章中存在的社会偏见类型,使用考虑了嵌入表示问题的多种算法以及 WEAT,比较了这些算法在新闻文章中训练的模型所表示的期望社会偏见,结果发现标准偏差检测方法与心理学知识并不一致,而新提出的算法虽然减轻了这种差距,但仍然无法完全匹配这些文献。
Nov, 2022
本文提出了一个启发式方法来将社交媒体帖子分类为五个不同的政治倾向类别,通过在 Twitter 和 Gab 这两个具有不同政治意识形态的社交媒体数据集上利用现有时间序列预测模型,我们的工作旨在为预测社交媒体平台中的政治偏见的挑战和机会提供启示,最终要为在数字领域减轻政治偏见的负面影响开发更有效的策略铺平道路。
Sep, 2023
利用 “翻译 - 检索 - 翻译” 策略引入推理通识知识,然后将其整合到多语言预训练语言模型中以预测政治极性,证明我们的框架不受所使用的模型的影响,并具有潜力为新闻从业者、社会科学家、新闻制作人员和消费者带来好处。
Dec, 2022