本次调查分析了 NLP 模型的社会影响,探讨了 NLP 算法中存在性别、种族和文化偏见的根源,定义了公平性,并说明了 NLP 各个子领域如何减少系统存在的偏见,最终讨论了未来研究如何消除 NLP 算法中的有害偏见。
Mar, 2022
发展公平认证以确保自然语言处理系统的算法公正性和对少数群体的非歧视性。
Jan, 2024
本文提出了一个完整的研究议程以便在印度社会背景下重新定义 NLP 公平性研究,同时考虑印度文化价值,缩小技术和资源方面的差异,并总结了一个关于印度社会不平等各个方面存在的社会偏见的实证研究,表明它们在语料库和模型中的普遍存在。
Nov, 2022
本文旨在研究印度社会准则在 NLP 的公正性中的作用,通过对印度社会背景、资源以及文化价值观的分析,建立公正性评估模型,探讨预测偏见和社会刻板印象的存在,并提出改进 NLP 公正性的全面研究议程,为其他地缘文化背景的研究提供借鉴。
Sep, 2022
方言、自然语言处理方法、偏见语言、公平性和多任务学习的关键字;使用多任务学习可以提高公平性,并更可靠地检测偏见语言的特性。
Jun, 2024
本研究就 NLP 系统展示的偏见和模型去偏见技术的限制做了梳理和评价,提出了实现公平学习的建议,具体包括明确不同方法之间的关系和与公平性理论的关系,以及处理模型选择问题的声明性工具,以帮助未来的工作。
Feb, 2023
本文提出了一种评估范式,评估自然语言处理技术在多语言、公正性和包容性三个维度上的性能,并通过基尼系数评估了当前自然语言处理技术对印度语言的性能。同时,本文提出了一种优化资源分配的方法来改善性能,并呼吁使用多维度评估为构建语言多样且公平的技术做出贡献。
May, 2022
本研究提出了使用无监督风格转移和 GPT-3 的零 - shot 技术发现具有表达性和直观性的个体公平规范的新方法,以解决文本分类器中公平性问题。我们使用众包研究验证了所生成的具有人类直觉的公平排除敏感属性的语句对,并展示了有限数量的人类反馈如何帮助训练一种相似度规范来训练下游的公平感知模型。
Dec, 2022
本文通过一项针对 312 名 NLP 群体成员的调查,对当前自然语言处理中在环境影响、公平性等三个方面所引起问题的现状与成因进行了分析,并提出了一些缓解措施。
Jun, 2023
该研究论文提出,自然语言处理模型中的去偏置方法应当使用敏感信息来实现公平去偏置,而不是盲目地消除它,为了实现公平平衡,研究人员建议采用能够与用户互动并提供反馈的交互式方法,从而在任务表现和偏置缓解之间实现更好和公正的平衡,并支持详尽的解释。
Oct, 2022