在研究中,我们发现标准词嵌入即使经过去偏差处理,其性别偏差仍然很高,而上下文词嵌入则能够减少这种性别偏差,从而为自然语言处理应用提供更公正的结果。
Apr, 2019
本研究基于模板方法提出了一种量化 BERT 中偏见的方法,并且通过性别代词解析的案例研究证明了该方法在捕捉社会偏见方面的优越性,同时也指出了该方法的普遍适用性,包括在多类别设置中使用的种族和宗教偏见。
Jun, 2019
通过引入 Contextualized Embedding Association Test (CEAT) 来度量神经语言模型中的整体偏见及其方差,并开发了自动识别交叉偏见和新现出的交叉偏见的方法 (IBD 和 EIBD),结果表明交叉偏见与种族和性别相关的次数最高。
Jun, 2020
利用上下文词嵌入的概念投射方法,量化了英语语言模型中社会群体的情感倾向,发现语言模型对性别认同、社会阶级和性取向的信号表现出最有偏见的态度,此方法旨在研究语言模型中的历史偏见,并对设计正义做出贡献,探讨了在语言中被边缘化的群体的相关关系。
Jul, 2023
研究比较了英语和德语中职业名称和性别指示目标词之间的关联性,并使用 Bert 模型来检测性别偏见,结果表明非常适合英语,但不适合具有丰富的形态和性别标记的德语等语言,本文强调探究偏见和减轻技术的重要性,特别是在大规模,多语言的语言模型中。
Oct, 2020
本论文研究了嵌入方法在编码社会边缘群体时的偏见问题,以及这种偏见可能导致的临床任务性能下降。通过使用 MIMIC-III 医院数据集中的医学记录对深度嵌入模型 (BERT) 进行预训练并使用两种方法量化潜在不公正性,作者发现 BERT 表征训练出的分类器在性别、语言、族裔和保险等方面表现出明显的性能差异,以及通过对抗去偏差的不足。最后提出了这些问题的最佳实践。
Mar, 2020
本研究关注多语言词向量中的性别偏见对迁移学习的影响,并提出了量化多语言词向量性别偏差的方法。结果表明,不同目标空间上的多语言词向量性别偏差受到不同的影响,对于下游任务的使用提供建议。
May, 2020
通过自然语言推理任务设计机制,测量陈旧的语义观念对词向量嵌入产生的影响。通过静态和动态嵌入中的偏见消除策略,减少了对其下游模型的无效推断,特别是对性别偏见的消除策略能够扩展到上下文嵌入中静态组件的有选择性应用(ELMo、BERT)。
Aug, 2019
为了提高语言模型的公正性,本文提出了多项定义并给出了新的测试和度量方式,旨在减少机器学习在文本生成过程中对性别、种族、语言宗教等社会构建的刻板印象所带来的负面影响。实证结果和人工评估表明,该方法能够在文本生成中减少偏见同时保留重要的上下文信息。
Jun, 2021
本研究在 Word Embedding Association Test 的基础上,对句子编码进行了偏差测量,实验包括了包括 ELMo 和 BERT 在内的多种方法,并提议了未来的研究方向。
Mar, 2019