机器翻译中性别偏见的评估
本研究评估了 Google Translate、DeepL 和 Modern MT 这三种在线翻译系统在性别翻译和偏见方面的表现,并发现这些系统在性别翻译方面存在不同程度的偏见。
Jun, 2023
通过使用 WinoMT 自动测试套件,我们对 19 个系统进行了研究,发现性别偏见在机器翻译中很常见,系统通常使用数据中的假性别关联而非有意义的上下文信息。
Oct, 2020
神经机器翻译(NMT)模型是机器翻译的先进技术,但这些模型被发现存在各种社会偏见,尤其是性别偏见。本文以印地语作为源语言,构建了两组性别特定的句子集(OTSC-Hindi 和 WinoMT-Hindi),用于自动评估不同的印地 - 英文(HI-EN)NMT 系统是否存在性别偏见。本研究强调了设计此类外在偏见评估数据集时考虑语言特性的重要性。
Nov, 2023
本章检查了机器翻译在持续性别偏见方面的作用,强调了跨语言环境和统计依赖性所带来的挑战。提供了与传统神经机器翻译方法和作为机器翻译系统的生成式预训练变压器模型相关的现有研究的全面概述。通过在英意翻译环境中使用 ChatGPT(基于 GPT-3.5)的实验,进一步评估了 ChatGPT 目前解决性别偏见的能力。研究结果强调了在机器翻译系统中减少偏见的发展的持续需求,并强调了在语言技术中培养公平和包容的重要性。
Jan, 2024
神经机器翻译中存在性别偏见,而评估基准主要关注英语作为源语言的翻译,我们提出了为源语言中的语法性别标记量身定制偏见评估测试集的方法,以确定 NMT 模型是否能通过语法性别线索来区分性别。
Nov, 2023
本文研究了机器偏见和性别偏见,使用性别中性语言对 Google 翻译进行了实验,结果显示翻译的默认性别更偏向于男性,特别是在 STEM 领域中,这种偏见程度远超实际分布,因此需要对当前的统计翻译工具进行偏误纠正。
Sep, 2018
本研究提出了一种用于评估机器翻译系统性别偏见的测试集方案,并构建了一组既不带有偏见性别也不过度偏向一侧的词组,然后通过该方案评估了传统机器翻译系统的性别偏见。
May, 2019
机器翻译在质量和应用方面不断取得进步,然而无意中传递性别偏见仍然是一个重大问题。为了弥补这一缺口,我们介绍了 GATE X-E,它是 GATE 语料库的扩展,包含了从土耳其语、匈牙利语、芬兰语和波斯语翻译成英语的人工翻译,并针对每种可能的性别解释提供了女性、男性和中性变体。我们还呈现了一个基于 GPT-3.5 Turbo 的英语性别重写解决方案,并利用 GATE X-E 对其进行了评估。我们开放源代码以鼓励进一步研究性别去偏见。
Nov, 2023
本研究旨在评估和量化印地 - 英语机器翻译系统中的性别偏见,并实现了一种基于语法考虑的修改版本的现有 TGBI 度量标准,同时比较了预先训练的嵌入和我们的机器翻译模型所学习的嵌入的多个指标上产生的偏差测量结果。
Jun, 2021