机器翻译中的性别偏见
本研究利用两个共指解析数据集,通过 8 种有语法性别的目标语言中的形态分析,第一次提出了机器翻译中性别偏见的挑战集和评估协议,并发现四个流行的工业机器翻译系统和两个最新的学术机器翻译模型在所有测试的目标语言上都容易出现性别偏见翻译错误。
Jun, 2019
本研究评估了 Google Translate、DeepL 和 Modern MT 这三种在线翻译系统在性别翻译和偏见方面的表现,并发现这些系统在性别翻译方面存在不同程度的偏见。
Jun, 2023
本章检查了机器翻译在持续性别偏见方面的作用,强调了跨语言环境和统计依赖性所带来的挑战。提供了与传统神经机器翻译方法和作为机器翻译系统的生成式预训练变压器模型相关的现有研究的全面概述。通过在英意翻译环境中使用 ChatGPT(基于 GPT-3.5)的实验,进一步评估了 ChatGPT 目前解决性别偏见的能力。研究结果强调了在机器翻译系统中减少偏见的发展的持续需求,并强调了在语言技术中培养公平和包容的重要性。
Jan, 2024
本文研究了机器偏见和性别偏见,使用性别中性语言对 Google 翻译进行了实验,结果显示翻译的默认性别更偏向于男性,特别是在 STEM 领域中,这种偏见程度远超实际分布,因此需要对当前的统计翻译工具进行偏误纠正。
Sep, 2018
本文研究了机器翻译 (MT) 中的偏见问题。通过使用性别中立的土耳其语和性别化的英语,本文探讨了 MT 模型中明显和潜在的性别偏见现象。研究者提出了一种方法来研究不对称性别标记,并通过评估人格化职业和人格刻板印象的表达方式揭示了 MT 模型中的偏见问题。本文强调了 MT 模型开发需要更多具有跨学科背景的语言详细分析的研究。
Aug, 2021
神经机器翻译(NMT)模型是机器翻译的先进技术,但这些模型被发现存在各种社会偏见,尤其是性别偏见。本文以印地语作为源语言,构建了两组性别特定的句子集(OTSC-Hindi 和 WinoMT-Hindi),用于自动评估不同的印地 - 英文(HI-EN)NMT 系统是否存在性别偏见。本研究强调了设计此类外在偏见评估数据集时考虑语言特性的重要性。
Nov, 2023
本文研究机器翻译中偏见放大的问题,探究算法的偏见增强对语言是否会产生贫化作用。作者测试了不同的数据驱动机器翻译范式,并发现所有测试的语言对中,都存在词汇和形态上的丧失。
Jan, 2021
本研究旨在评估和量化印地 - 英语机器翻译系统中的性别偏见,并实现了一种基于语法考虑的修改版本的现有 TGBI 度量标准,同时比较了预先训练的嵌入和我们的机器翻译模型所学习的嵌入的多个指标上产生的偏差测量结果。
Jun, 2021
机器翻译在质量和应用方面不断取得进步,然而无意中传递性别偏见仍然是一个重大问题。为了弥补这一缺口,我们介绍了 GATE X-E,它是 GATE 语料库的扩展,包含了从土耳其语、匈牙利语、芬兰语和波斯语翻译成英语的人工翻译,并针对每种可能的性别解释提供了女性、男性和中性变体。我们还呈现了一个基于 GPT-3.5 Turbo 的英语性别重写解决方案,并利用 GATE X-E 对其进行了评估。我们开放源代码以鼓励进一步研究性别去偏见。
Nov, 2023
神经机器翻译中存在性别偏见,而评估基准主要关注英语作为源语言的翻译,我们提出了为源语言中的语法性别标记量身定制偏见评估测试集的方法,以确定 NMT 模型是否能通过语法性别线索来区分性别。
Nov, 2023