机器翻译中情感偏见的测量
本文旨在量化并减少语言模型中表现出的情感偏见,该文分析了在给定的条件下(例如写作提示)和语言模型中,引起生成的文本情感发生变化的敏感属性(例如国家名称,职业,性别)的值变化的影响。我们采用公平机器学习文献中的个体和团体公正度量来量化情感偏见,并证明在两种不同的语料库(新闻文章和维基百科)上训练的大规模模型存在相当高的偏见。我们随后提出使用嵌入和情感预测导出的正则化方法,该方法应用于语言模型的潜在表示。该正则化提高了公正度量,同时保持了可比水平的困惑度和语义相似性。
Nov, 2019
本章检查了机器翻译在持续性别偏见方面的作用,强调了跨语言环境和统计依赖性所带来的挑战。提供了与传统神经机器翻译方法和作为机器翻译系统的生成式预训练变压器模型相关的现有研究的全面概述。通过在英意翻译环境中使用 ChatGPT(基于 GPT-3.5)的实验,进一步评估了 ChatGPT 目前解决性别偏见的能力。研究结果强调了在机器翻译系统中减少偏见的发展的持续需求,并强调了在语言技术中培养公平和包容的重要性。
Jan, 2024
本文研究机器翻译中偏见放大的问题,探究算法的偏见增强对语言是否会产生贫化作用。作者测试了不同的数据驱动机器翻译范式,并发现所有测试的语言对中,都存在词汇和形态上的丧失。
Jan, 2021
本文研究了跨多语言数据集及经过机器翻译的文本中,变压器模型在情感分析任务中的表现,并通过比较这些模型在不同语言环境中的效果,洞察其性能变化对情感分析跨多种语言的潜在影响,同时还探讨了其缺点及未来研究的潜在方向。
May, 2024
通过因果评估测试了跨语言转移在情感分析方面的使用是否导入了性别或种族偏见,并发现跨语言转移的系统通常比其单语对应物更具有偏见,同时我们还发现种族偏见比性别偏见更普遍。
May, 2023
提出了一种神经机器翻译的方法,利用一种新的候选采样策略,基于强化学习技术提高翻译模型的机器导向性,从而产生最适合用作特定下游任务的自然语言处理组件输入的翻译结果,这种方法可以显著提高英文分类器对 Twitter 数据的情感分类的性能。
Oct, 2019
本研究旨在评估和量化印地 - 英语机器翻译系统中的性别偏见,并实现了一种基于语法考虑的修改版本的现有 TGBI 度量标准,同时比较了预先训练的嵌入和我们的机器翻译模型所学习的嵌入的多个指标上产生的偏差测量结果。
Jun, 2021
本研究评估了 Google Translate、DeepL 和 Modern MT 这三种在线翻译系统在性别翻译和偏见方面的表现,并发现这些系统在性别翻译方面存在不同程度的偏见。
Jun, 2023
神经机器翻译中存在性别偏见,而评估基准主要关注英语作为源语言的翻译,我们提出了为源语言中的语法性别标记量身定制偏见评估测试集的方法,以确定 NMT 模型是否能通过语法性别线索来区分性别。
Nov, 2023