本次调查分析了 NLP 模型的社会影响,探讨了 NLP 算法中存在性别、种族和文化偏见的根源,定义了公平性,并说明了 NLP 各个子领域如何减少系统存在的偏见,最终讨论了未来研究如何消除 NLP 算法中的有害偏见。
Mar, 2022
使用对比学习技术来减轻语音模型中的偏差,改善性能不佳的子群体的内部表示,从而降低模型偏差并提升性能。
Jun, 2024
大型语言模型中的社会偏见评估和缓解技术的综述,介绍了社会偏见与公平的概念、评估指标和数据集,以及介绍了干预方法的分类和研究趋势,帮助研究人员和实践者更好地理解和防止偏见在大型语言模型中的传播。
Sep, 2023
本研究提出了一种新的框架,用于探索语言模型中的社会偏见,通过采集探索数据集和利用一种新的公平性评分方法,发现语言模型中的偏见更加复杂,并揭示不同宗教身份导致各种模型中最明显的不平等处理。
Nov, 2023
该论文调查了自然语言处理中方言的重要性,描述了不同方言数据集和方法,对方言的研究超过了仅仅方言分类的工作,对构建具有公平性的语言技术有重要意义。
Jan, 2024
为了提高语言模型的公正性,本文提出了多项定义并给出了新的测试和度量方式,旨在减少机器学习在文本生成过程中对性别、种族、语言宗教等社会构建的刻板印象所带来的负面影响。实证结果和人工评估表明,该方法能够在文本生成中减少偏见同时保留重要的上下文信息。
Jun, 2021
本研究调查了多语言和非英文环境下公平性问题,并强调当前研究的不足之处及因英语环境限制所面临的挑战。作者认为,在构建公平性数据集方面,世界上众多多样化的文化和语言使得实现全面覆盖变得不可行,因此需超越当前仅仅集中在特定维度和类型偏见的数据集驱动方法,以便在不同的语言和文化间实现扩展。
Feb, 2023
大语言模型带来了强大的性能和发展前景,并广泛应用于现实世界。然而,这些模型可能从未经处理的训练数据中捕捉到社会偏见,并将其传播到下游任务。本文全面回顾了关于大语言模型中的公平性的相关研究,介绍了中等规模的模型和大规模的模型分别从内在偏见和外在偏见的角度引入了评估指标和去偏方法,并讨论了公平性发展中的挑战和未来方向。
Aug, 2023
本文提出了一个完整的研究议程以便在印度社会背景下重新定义 NLP 公平性研究,同时考虑印度文化价值,缩小技术和资源方面的差异,并总结了一个关于印度社会不平等各个方面存在的社会偏见的实证研究,表明它们在语料库和模型中的普遍存在。
Nov, 2022
本研究提出了 FairDistillation 方法,使用知识蒸馏构建较小的跨语言语言模型,控制特定偏见,成功缓解刻板印象和代表性危害。FairDistillation 方法可以以较低的成本创建更公平的语言模型。
Jul, 2022