应用词嵌入测量针对巴西记者的信息操作的情感倾向
本研究利用一个新的、基于6964篇新闻文章的辅助指标标签的语料库,开发了一种神经模型对新闻文章中的政治偏见和不公平进行分析,并从单词到整篇文章的不同层次的文本粒度发现了深刻的偏见模式。
Oct, 2020
本文探讨了一种通过比较相关单词上下文来自动识别有偏见语言的方法,即使用在左翼和右翼新闻机构上的词嵌入模型训练,结果表明此方法是有效的。
Dec, 2021
本文通过设计一种新的方法来检测和衡量基于文本的模型所涉及的潜在危害的严重性,并将该方法应用于 Twitter 的英语边缘滥用模型,以检测和测量与过度惩罚边缘社区言论相关的问题,并通过增加附加真负面示例来减轻相关危害。
Oct, 2022
通过分析500k篇美国在线新闻文章中存在的社会偏见类型,使用考虑了嵌入表示问题的多种算法以及WEAT,比较了这些算法在新闻文章中训练的模型所表示的期望社会偏见,结果发现标准偏差检测方法与心理学知识并不一致,而新提出的算法虽然减轻了这种差距,但仍然无法完全匹配这些文献。
Nov, 2022
该论文从自动化方法和人工评估者两个重要角度研究社交网络内容管理,通过使用九个机器认证器在92百万条讨论美国政治议题的YouTube评论语料库上进行无声审核,介绍了一份独特的代理违法数据集,研究表明,社交媒体内容的管理具有高度主观性,并引发了关于内容管理实践的重要问题。
Jan, 2023
本研究旨在测量大型语言模型中社会和经济偏见的媒体偏见,以及在预训练数据中表现出政治(社会,经济)偏见的先验模型对高风险社会导向任务的公平性的影响。结果发现先验模型确实存在政治倾向,这可能加剧原始数据中的偏见并将其传播到误导检测器之类的下游模型中,本研究讨论了这些发现对NLP研究的影响,并提出了减轻不公平的未来方向。
May, 2023
新闻报道中的偏见表现和影响是社会科学的核心主题,近年来在自然语言处理领域受到了越来越多的关注。本研究综述了社会科学的方法,并将其与自然语言处理领域中用于分析媒体偏见的典型任务表述、方法和评估指标进行了对比。我们讨论了开放性问题,并提出了可能的研究方向,以填补理论与预测模型之间及其评估之间的差距。这些包括模型透明度、考虑文档外部信息以及跨文档推理而非单一标签的分配。
Sep, 2023
媒体偏见检测需要综合多个新闻来源的信息,以句子级别的政治偏见检测为例,通过考虑上下文中的偏见而进行的任务被证明是一项具有挑战性的任务。我们提出了一种更加小心地搜索上下文的技术,采用偏见敏感和目标感知的数据增强方法,通过与BERT等预训练模型的结合,在著名的BASIL数据集上进行了综合实验,取得了58.15的F1得分,明显优于先前方法的最新偏见检测任务。
Oct, 2023
本研究解决了在线媒体评论中性别歧视的检测难题,提出了一种通过单语和多语开源文本嵌入更可靠地识别德语评论中的性别歧视和厌女现象的新方法。研究结果表明,该方法在GermEval 2024挑战赛中表现优秀,展示了可扩展应用于多种语言和语言环境的潜力。
Sep, 2024