研究土耳其语言模型中的性别偏见
本研究旨在分析西斯拉夫语言模型中的性别偏见,通过评估单语和多语言模型的性别偏见情况以及生成词的有害程度和性别特征,发现针对男性的西斯拉夫语言模型生成的词较为有害,且与暴力,死亡和疾病有关系。
Apr, 2023
本文研究了机器翻译 (MT) 中的偏见问题。通过使用性别中立的土耳其语和性别化的英语,本文探讨了 MT 模型中明显和潜在的性别偏见现象。研究者提出了一种方法来研究不对称性别标记,并通过评估人格化职业和人格刻板印象的表达方式揭示了 MT 模型中的偏见问题。本文强调了 MT 模型开发需要更多具有跨学科背景的语言详细分析的研究。
Aug, 2021
我们研究了不同语言中大型语言模型生成的输出中的性别偏见,通过三项测量方法评估性别相关背景下选择描述性词语的性别偏见、选择性别相关代词(她 / 他)的性别偏见以及生成对话的主题的性别偏见。我们的研究表明,在我们调查的所有语言中都存在显著的性别偏见。
Mar, 2024
研究发现使用 LSTM 架构训练的语言模型在表示性别时存在动态变化,并且性别信息逐渐局部化。通过监控训练动态,可以检测到女性和男性在输入嵌入中的表示不对称。去除偏见的策略如何应用需要更多深入探讨。
Jul, 2022
通过系统地分析使用不同语言、单语和多语模型、不同架构的偏向性,扩展了评估预训练英语语言模型中的刻板偏见的研究范围,发现在多语言环境下分析是非常重要的,并且公布了代码库以及翻译数据集的实用指南以鼓励将我们的工作进一步扩展到其他语言。
Jul, 2023
本研究旨在评估和量化印地 - 英语机器翻译系统中的性别偏见,并实现了一种基于语法考虑的修改版本的现有 TGBI 度量标准,同时比较了预先训练的嵌入和我们的机器翻译模型所学习的嵌入的多个指标上产生的偏差测量结果。
Jun, 2021
本章检查了机器翻译在持续性别偏见方面的作用,强调了跨语言环境和统计依赖性所带来的挑战。提供了与传统神经机器翻译方法和作为机器翻译系统的生成式预训练变压器模型相关的现有研究的全面概述。通过在英意翻译环境中使用 ChatGPT(基于 GPT-3.5)的实验,进一步评估了 ChatGPT 目前解决性别偏见的能力。研究结果强调了在机器翻译系统中减少偏见的发展的持续需求,并强调了在语言技术中培养公平和包容的重要性。
Jan, 2024
通过比较研究和建立评估框架,在专业环境中研究语言模型的两种偏见:性别和种族。我们发现,尽管较新的模型相比较老模型来说性别偏见大大减少,但种族偏见仍然存在。
Nov, 2023
本篇论文从语言学角度全面调查了 Transformer 模型中的性别偏见,批判性地审查了现有文献关于 Transformer 中性别偏见的方法和度量标准,并提出了当前方法的局限性,强调了在开发和部署语言技术时,促进公平的重要性。
Jun, 2023