评估上下文词嵌入中的潜在性别偏见
对Google News文章上的Word Embedding进行的实证研究表明,即使是这种非人工制作的大型文本数据,在机器学习和自然语言处理应用中也存在着性别偏见的问题。为了消除这些偏见,我们提出了一种方法进行Word Embedding去偏见化,从而减少性别偏见的扩大和助推。
Jul, 2016
本研究探讨了文本话语中的性别偏见现象,评估了现有去偏置模型的实际效果,认为现有去偏置方法虽然在表面上达到了降低偏见的效果,但实际上却只是掩盖了偏见,并认为现有技术不足以构建性别中性的计算模型。
Mar, 2019
该研究提出了一种针对word embeddings中性别偏见问题的去偏方法,通过保留与性别相关、非歧视性别信息的同时,去除预先训练好的word embeddings中的刻板性别歧视偏差,实验结果表明该方法在保留性别相关但非歧视性别信息的同时,能够更好地去偏,适用于一系列benchmark数据集和NLP应用。
Jun, 2019
通过使用概念器去偏置来后处理传统和上下文的单词嵌入,该方法可以同时消除种族和性别偏见,并且可以有效地利用偏见单词的异构列表。该方法可以减少单词嵌入所表示的种族和性别偏见,其中通过 Caliskan 等人的单词嵌入关联测试(WEAT)来衡量。
Jun, 2019
该研究提出了一种新的度量标准来评估西班牙语和法语等语言中的词嵌入性别偏见,并进一步证明了双语词嵌入与英文词嵌入存在性别偏见的一致性。同时作者还提供了一种新的方法用于缓解这种偏见。实验结果表明这些方法有效地减少了性别偏见,同时也保持了嵌入向量的实用性。
Sep, 2019
本文分析了最先进的语境词表示模型,如BERT和GPT-2,对于性别,种族和交叉身份认同的偏差情况,并提出了一种新颖的方法对词语级别上的偏差进行评估。
Nov, 2019
本研究提出了一种基于统计依存关系的方法来消除词向量关系中的性别偏差,有效避免了词向量关系中存在的性别偏见问题,并在多个联想任务中实现了最先进的结果。
Nov, 2019
本研究使用 Word Embeddings Association Test (WEAT)、Clustering 和 Sentence Embeddings Association Test (SEAT) 等方法,衡量荷兰语词嵌入中的性别偏见,并使用 Hard-Debias 和 Sent-Debias 调控方法,探索性别偏见对下游任务的影响。结果表明,传统和上下文嵌入中存在性别偏见,研究人员提供了翻译荷兰语数据集和减轻偏误的嵌入。
Oct, 2020
通过提出一种基于因果推断框架的新方法来有效消除性别偏见,该方法可以在保留嵌入式语义信息的同时构建和分析性别信息流的复杂因果机制,从而在性别去偏任务中取得最新的技术结果。
Dec, 2021