从 Jim 代码的视角看自然语言处理中偏见的起源
本次调查分析了 NLP 模型的社会影响,探讨了 NLP 算法中存在性别、种族和文化偏见的根源,定义了公平性,并说明了 NLP 各个子领域如何减少系统存在的偏见,最终讨论了未来研究如何消除 NLP 算法中的有害偏见。
Mar, 2022
本篇论文调查了 209 篇关于自然语言处理模型中的偏差的论文,提出了社会人口统计学偏见的定义,并确定了研究偏见的三个主要类别:偏见类型,偏见度量和去偏见。作者总结说,目前的去偏见技术是肤浅的,不能真正消除偏见;最后提供了未来工作的建议。
Jun, 2023
通过调查 ACL 文献集中涉及种族的 79 篇论文,发现 NLP 模型开发各阶段都存在各种类型的种族相关偏见,并强调需要积极考虑如何维护种族等级制度,但在种族和 NLP 研究方面仍存在缺口:将种族作为固定单一维度变量运作,对历史上种族歧视造成的差异加以强化;在 NLP 文献中历史上处于边缘的特定人群的声音几乎没有被重视。因此,我们的工作呼吁在 NLP 研究实践中包容种族和实现种族公正。
Jun, 2021
快速增长的自然语言处理在各种社会技术解决方案中的使用和应用突显了对偏见及其对社会的影响的全面理解的需求。虽然 NLP 中的偏见研究得到了扩展,但仍存在一些需要关注的挑战,包括有限地关注种族和性别以外的社会人口偏见、主要集中在模型上的狭窄分析范围,以及技术为中心的实施方法。本文解决了这些挑战,并倡导一种更加跨学科的方式来理解 NLP 中的偏见。该工作分为三个方面,每个方面探索 NLP 中的特定偏见方面。
Aug, 2023
对 146 篇分析自然语言处理系统中 “偏见” 的论文进行调查,发现大部分这些论文的动机模糊、不一致且缺少规范性推理,同时发现这些论文提出的量化技术与动机不符,并未接触自然语言以外的相关文献。基于这些发现,为分析自然语言处理系统中的 “偏见” 工作提出了三个建议。这些建议包括更加认识语言与社会等级之间的关系,鼓励研究人员和实践者表达对 “偏见” 的概念化,即什么样的系统行为对谁有害,以及为什么,同时也要关注受自然语言处理系统影响的社区成员的生活经验,质疑和重新构想技术人员与这样的社区之间的权力关系。
May, 2020
本文回顾了当今关于识别和减轻 NLP 中的性别偏置的研究,并分析了四种代表性偏置基础上的性别偏见和认识其方法,同时探讨了现有性别去偏方法的优缺点和未来的研究。
Jun, 2019
文章提出了一种用于 NLP(自然语言处理)的预测性偏差框架,该框架将数据、模型、标签偏差、选择偏差、模型过度放大、语义偏差作为偏差的四个主要来源,并探讨了过去的工作是如何对抗每种偏差来源的,以期引导未来研究。
Nov, 2019
该研究回顾了近 200 篇关于 NLP 中有关性别偏见的文章,发现大部分文章没有明确说明他们如何理解性别,甚至没有使用包容性的模型,对非二元性别人群的存在和经验忽视,提出建议以便在 NLP 研究中融入女性学理论和方法,以期实现更加包容的性别偏见研究。
May, 2022
本文调查了 304 篇关于自然语言处理中的性别偏见的论文,分析了社会科学中性别及其类别的定义,并将其与自然语言处理中性别偏见的正式定义联系起来,概述了应用于性别偏见研究的词汇和数据集,并比较和对比了检测和缓解性别偏见的方法。我们发现性别偏见研究存在四个核心限制,提出了解决这些限制的建议作为未来研究的指南。
Dec, 2021
本文针对自然语言处理技术中社会态度的反映及其中的社会偏见问题展开研究,以两个不同实验为案例,说明训练数据本身的社会偏见对模型的影响。同时,讨论了关于残疾人的话题以及在相关文本中存在的不利偏见,并展示了大量相关证据。
May, 2020