模型和评估:朝着多语言文本分类公平性的方向
本文通过引入多语言个体公平和多语言群体公平这两个公平性概念,分析了预训练的多模态模型是否公平地对待多种语言,结果表明预训练模型在各种语言上的表现差异很大,缺乏多语言群体公平特性,并且对于涉及种族、性别和年龄等方面的人物群体,模型存在一定的偏误。
Jun, 2021
本研究调查了多语言和非英文环境下公平性问题,并强调当前研究的不足之处及因英语环境限制所面临的挑战。作者认为,在构建公平性数据集方面,世界上众多多样化的文化和语言使得实现全面覆盖变得不可行,因此需超越当前仅仅集中在特定维度和类型偏见的数据集驱动方法,以便在不同的语言和文化间实现扩展。
Feb, 2023
本研究分析了不同大小的预训练语言模型在两个有毒文本分类任务上的公平性,发现仅关注准确性度量可能会导致具有广泛公平特性变化的模型。我们发现,尽管文献中有所声称,但公平变化很少与模型大小有关。为了提高模型的公平性,该研究表明可以成功地将适用于结构化表格数据的两种后处理方法应用于各种预训练语言模型中。
Aug, 2021
探讨预训练多语言语言模型的组公平性,通过创建一个新的平行洞察测试实例的多语言数据集(MozArt)及使用人口统计信息来评估三种多语言模型(mBERT,XLM-R 和 mT5),我们发现这三种模型在四种目标语言中表现出不同程度的组不公平性,例如在西班牙语中表现出接近相等的风险,但在德语中表现出高水平的不平等。
Oct, 2022
本文提出了一个数据基准,用于评估预训练的语言模型在下游任务中的公平性,包括四个司法管辖区(欧洲理事会、美国、瑞士和中国)、五种语言(英语、德语、法语、意大利语和汉语)以及五个属性的公平性(性别、年龄、地区、语言和法律领域),并通过几种群组鲁棒性的微调技术评估预训练的语言模型,发现在许多情况下,绩效群体差异非常明显,而这些技术均不能保证公平性,并且不能一致地减少群体差异,此外,对结果进行了定量和定性分析,并强调法律 NLP 鲁棒性方法发展中存在的挑战。
Mar, 2022
本论文研究在多语言环境下,通过将性别视为领域,利用标准领域适应模型减少性别偏见,提高文本分类器的性能,并在两个文本分类任务中评估方法,证明了该方法的有效性,同时使用三个公平感知的基线进行了实验。
Apr, 2022
本论文对多种语言进行偏见分析,研究多语言数据训练与单语言数据训练对 Bias 的影响并使用情感分析模型来观察不同民族是否被更正面地看待,结果发现多语言 Finetuning 导致对保护群体的预测变异性增加,表明了 Bias 的放大效应。
May, 2023
大型语言模型中的社会偏见评估和缓解技术的综述,介绍了社会偏见与公平的概念、评估指标和数据集,以及介绍了干预方法的分类和研究趋势,帮助研究人员和实践者更好地理解和防止偏见在大型语言模型中的传播。
Sep, 2023
本文研究了多语言模型中去偏技术的可转移性。我们在英语、法语、德语和荷兰语中检验了这些技术的适用性。利用多语种 BERT(mBERT),我们证明了跨语言的去偏技术不仅可行,而且效果显著。令人惊讶的是,我们的发现表明,在应用这些技术于非英语语言时并不存在性能劣势。我们使用 CrowS-Pairs 数据集的翻译,分析结果表明 SentenceDebias 在不同语言之间是最佳技术,在 mBERT 中平均降低了 13% 的偏见。我们还发现,具有额外预训练的去偏技术在分析的语言中展现了跨语言效果的增强,特别是在低资源语言中。这些新的深入认识有助于对多语种语言模型中的偏见缓解有更深层次的理解,并提供了在不同语言环境中进行去偏技术的实践指导。
Oct, 2023
大语言模型带来了强大的性能和发展前景,并广泛应用于现实世界。然而,这些模型可能从未经处理的训练数据中捕捉到社会偏见,并将其传播到下游任务。本文全面回顾了关于大语言模型中的公平性的相关研究,介绍了中等规模的模型和大规模的模型分别从内在偏见和外在偏见的角度引入了评估指标和去偏方法,并讨论了公平性发展中的挑战和未来方向。
Aug, 2023