发展公平认证以确保自然语言处理系统的算法公正性和对少数群体的非歧视性。
Jan, 2024
本篇论文调查了 209 篇关于自然语言处理模型中的偏差的论文,提出了社会人口统计学偏见的定义,并确定了研究偏见的三个主要类别:偏见类型,偏见度量和去偏见。作者总结说,目前的去偏见技术是肤浅的,不能真正消除偏见;最后提供了未来工作的建议。
Jun, 2023
本论文探讨自然语言处理模型中的偏见源自种族主义、性别歧视和同性恋恐惧症 500 年以来的历史,同时指出处理偏见和不公平的唯一方法是解决首先引起它们的社会问题,并引入社会科学及社会科学家的研究成果来减轻自然语言处理模型中的偏见。
May, 2023
本文调查了 304 篇关于自然语言处理中的性别偏见的论文,分析了社会科学中性别及其类别的定义,并将其与自然语言处理中性别偏见的正式定义联系起来,概述了应用于性别偏见研究的词汇和数据集,并比较和对比了检测和缓解性别偏见的方法。我们发现性别偏见研究存在四个核心限制,提出了解决这些限制的建议作为未来研究的指南。
Dec, 2021
本文提出了一个完整的研究议程以便在印度社会背景下重新定义 NLP 公平性研究,同时考虑印度文化价值,缩小技术和资源方面的差异,并总结了一个关于印度社会不平等各个方面存在的社会偏见的实证研究,表明它们在语料库和模型中的普遍存在。
Nov, 2022
本研究就 NLP 系统展示的偏见和模型去偏见技术的限制做了梳理和评价,提出了实现公平学习的建议,具体包括明确不同方法之间的关系和与公平性理论的关系,以及处理模型选择问题的声明性工具,以帮助未来的工作。
Feb, 2023
调查表明,人工智能领域中存在各种偏见和不公,因此机器学习研究人员定义了公平性的分类,以解决现有 AI 系统中的偏见问题。此外,调查还考察了在 AI 的不同领域和子领域中,现有技术的问题及其应对措施,以期鼓励研究人员在其各自领域中研究此问题。
Aug, 2019
本文回顾了当今关于识别和减轻 NLP 中的性别偏置的研究,并分析了四种代表性偏置基础上的性别偏见和认识其方法,同时探讨了现有性别去偏方法的优缺点和未来的研究。
Jun, 2019
本文综述了自然语言处理技术的快速发展所带来的问题,尤其是如何检测这些技术中的偏见。作者讨论了适用于评估和改进这些偏见测量方法的心理测量学概念,并认为采用心理测量学词汇和方法可以使 NLP 偏见研究更有效和透明。
该论文对聊天机器人系统中的偏见和公平性进行了全面的概述,首先回顾了聊天机器人的历史和类别,然后分析了应用中的偏见来源和潜在危害,审视了设计公平和无偏见聊天机器人系统的考虑因素,最后讨论了未来的研究方向。
Sep, 2023