自然语言处理中殖民性的物质透镜
在这篇论文中,我们探讨了社会技术系统(情感分析工具)中潜在的偏见,并对具有殖民主义影响的孟加拉社群中的性别、宗教和国籍等身份类别进行了分析。通过对所有孟加拉情感分析工具进行算法审计,我们发现这些工具不仅在输出上存在不一致性,而且在不同身份表达方式下存在偏见。我们将研究结果与孟加拉社群的殖民主义社会文化结构联系起来,并探讨了情感分析工具下游偏见的影响。
Jan, 2024
通过调查 ACL 文献集中涉及种族的 79 篇论文,发现 NLP 模型开发各阶段都存在各种类型的种族相关偏见,并强调需要积极考虑如何维护种族等级制度,但在种族和 NLP 研究方面仍存在缺口:将种族作为固定单一维度变量运作,对历史上种族歧视造成的差异加以强化;在 NLP 文献中历史上处于边缘的特定人群的声音几乎没有被重视。因此,我们的工作呼吁在 NLP 研究实践中包容种族和实现种族公正。
Jun, 2021
对 146 篇分析自然语言处理系统中 “偏见” 的论文进行调查,发现大部分这些论文的动机模糊、不一致且缺少规范性推理,同时发现这些论文提出的量化技术与动机不符,并未接触自然语言以外的相关文献。基于这些发现,为分析自然语言处理系统中的 “偏见” 工作提出了三个建议。这些建议包括更加认识语言与社会等级之间的关系,鼓励研究人员和实践者表达对 “偏见” 的概念化,即什么样的系统行为对谁有害,以及为什么,同时也要关注受自然语言处理系统影响的社区成员的生活经验,质疑和重新构想技术人员与这样的社区之间的权力关系。
May, 2020
NLP 领域正在经历一系列颠覆性的变化,该研究旨在通过深入了解过去来塑造我们的未来。通过对 26 位 NLP 研究人员进行长篇采访,我们研究了影响 NLP 领域的因素,包括文化、激励和基础设施。我们的访谈对象发现该领域存在循环模式,同时也出现了历史上没有先例的新变化,包括基准文化和软件基础设施的变化。通过对 ACL 文集中的引用、作者和语言使用进行定量分析,我们进一步支持了这一讨论。最后,我们讨论了 NLP 领域未来的共同愿景、关切和希望。我们希望这项对过去和现在的研究能够引发对我们社区内隐含规范的明确讨论,并更加有意识地塑造未来。
Oct, 2023
通过采访 17 位在澳大利亚从事或支持土著和 / 或托雷斯海峡岛民社区语言技术项目的研究人员,本文探讨了在为土著语言构建 NLP 技术时的伦理考虑,并建议 NLP 研究人员应关注与土著社区的互动过程,而不仅仅关注去语境的产物。
Feb, 2024
本次调查分析了 NLP 模型的社会影响,探讨了 NLP 算法中存在性别、种族和文化偏见的根源,定义了公平性,并说明了 NLP 各个子领域如何减少系统存在的偏见,最终讨论了未来研究如何消除 NLP 算法中的有害偏见。
Mar, 2022
通过西方哲学到达印度教传统的道德哲学、允许多元主义对齐技术,以及扩展价值观的认识论,我们建议用三种方案使人工智能对齐技术去殖民化。
Sep, 2023
本论文探讨自然语言处理模型中的偏见源自种族主义、性别歧视和同性恋恐惧症 500 年以来的历史,同时指出处理偏见和不公平的唯一方法是解决首先引起它们的社会问题,并引入社会科学及社会科学家的研究成果来减轻自然语言处理模型中的偏见。
May, 2023
本论文介绍了一种估算全球语言技术的实用性的框架,并量化了 NLP 研究现状中存在的差异性,探讨了其相关的社会和学术因素,并为基于证据的政策制定提出了定制的建议,旨在促进更全球和公平的语言技术。
Oct, 2021
该论文聚焦于快速技术进步面前土著语言社区的边缘化问题,强调这些语言的文化丰富性以及它们在自然语言处理领域被忽视的风险。我们旨在弥合这些社区与研究人员之间的鸿沟,强调尊重土著社区观点的包容性技术进步的必要性。我们展示了拉丁美洲土著语言在自然语言处理方面的进展,以及涵盖拉丁美洲土著语言现状、它们在自然语言处理中的代表性,以及保护和发展它们所需要的挑战和创新的调查。该论文在理解拉丁美洲土著社区以及一般低资源土著社区的自然语言处理需求和进展方面对当前文献作出了贡献。
Apr, 2024