利用有偏模型去偏见文本:一种性别公平的重写模型
最近的神经方法在神经机器翻译(NMT)系统质量方面取得了重大进展。然而,这些系统经常会产生具有不准确性别的翻译,这可以追溯到训练数据中的偏见。Saunders 和 Byrne 通过使用一个包含平衡性别职业词的手工制作数据集来解决这个问题。通过使用这个数据来微调现有的 NMT 模型,他们证明了性别偏见可以显著减轻,尽管这会导致由于灾难性遗忘而降低翻译质量。然而,我们发现,简单地补充手工制作的数据集与基础模型训练语料库的随机样本就足以显著减少灾难性遗忘。我们还提出了一种新颖的领域自适应技术,利用 Zmigrod 等人提出的反事实数据生成技术创建的领域内数据,在不显著降低翻译质量的情况下进一步提高 WinoMT 挑战测试集的准确性。我们展示了它在从英语到三种形态丰富的语言(法语、西班牙语和意大利语)的 NMT 系统中的有效性。相关数据集和代码将在 Github 上提供。
Nov, 2023
本文提出使用词向量以减少神经机器翻译中性别偏见的方法并应用于 Transformer 翻译结构中,通过评估在 WMT 英西标准测试上的结果,展示出一定的性能提高和在职业测试集上消除基线系统已存在的偏见。
Jan, 2019
本章检查了机器翻译在持续性别偏见方面的作用,强调了跨语言环境和统计依赖性所带来的挑战。提供了与传统神经机器翻译方法和作为机器翻译系统的生成式预训练变压器模型相关的现有研究的全面概述。通过在英意翻译环境中使用 ChatGPT(基于 GPT-3.5)的实验,进一步评估了 ChatGPT 目前解决性别偏见的能力。研究结果强调了在机器翻译系统中减少偏见的发展的持续需求,并强调了在语言技术中培养公平和包容的重要性。
Jan, 2024
本研究旨在评估和量化印地 - 英语机器翻译系统中的性别偏见,并实现了一种基于语法考虑的修改版本的现有 TGBI 度量标准,同时比较了预先训练的嵌入和我们的机器翻译模型所学习的嵌入的多个指标上产生的偏差测量结果。
Jun, 2021
神经语言模型在没有直接监督的情况下学习各种语言属性的能力已被多个研究证明。本研究初步探索神经模型如何发现词语的语言属性(如性别)及其使用规则这一较少研究的主题。我们建议使用基于法语的 PCFG 生成的人工语料库来精确控制训练数据中的性别分布,并确定模型在何种条件下正确捕捉性别信息,或出现性别偏见。
Oct, 2023
本文提出了一种数据干预策略,通过在仅使用 10 个去偏见(干预)的训练样例上微调预训练模型,可显著降低优先考虑任何性别的趋势,从而减少预训练大型语言模型中的性别偏见,而且此方法的使用成本低,是一种高度可行且实用的少量训练样例去偏见方法。
Jun, 2023
提出了一种针对英语的基于规则和神经网络的性别中立改写方法,使用手工和自动生成数据进行了评估。实验结果表明,我们的 NeuTral Rewriter 针对合成、领域内和领域外测试结果的字错误率(WER)低于 0.18%。
Sep, 2021
本文介绍了一种基于对抗学习的机器翻译性别偏见缓解框架,该框架通过在预训练的大型语言模型上微调网络目标,以及从数据自身推断保护变量的任务中开发措施,实现了对机器翻译中的性别偏见的缓解,提高了男女实体翻译质量的差异。
Mar, 2022