测量知识图谱嵌入中的社会偏见
对Google News文章上的Word Embedding进行的实证研究表明,即使是这种非人工制作的大型文本数据,在机器学习和自然语言处理应用中也存在着性别偏见的问题。为了消除这些偏见,我们提出了一种方法进行Word Embedding去偏见化,从而减少性别偏见的扩大和助推。
Jul, 2016
本文研究了神经关系抽取中的性别偏见问题,并提出了WikiGenderBias数据集,通过该数据集评估了系统的性别偏见,并分析了名称去标记化、词向量的困难去偏见和反事实数据增强对性别偏见和系统性能的影响。
Nov, 2019
本文研究了公开可得的单词嵌入在某些社会层面上的偏见反映了实际调查数据,但并非所有维度的数据都能得到反映,只有最显著的偏见维度,例如性别方面,才能得到准确的反映。
Apr, 2020
本文探讨了知识图谱中的社会偏见和文化偏见,特别是在节点流行度与链接预测精度之间的负相关关系以及从知识图嵌入中预测人的性别并提出了过滤对抗网络(FAN)来消除这些敏感属性信息从而使知识图谱达到去偏见的目的。
Jun, 2020
研究表明单词嵌入存在性别偏见,过去常常以男女性词对来衡量性别偏见,但这种方式存在局限性,因为它们无法识别现实世界中的其他类型偏见,并且不能很好地指示偏见。
Oct, 2020
本文提出了一种基于数值偏差度量的方法,用于识别和暴露知识图谱嵌入中存在的偏见,并在职业预测任务中展示了三种不同的偏见度量,从而弥补了目前文献中手动指定偏差关系的缺陷,以支持更明智的决策。
Sep, 2021
本文批判性分析了有关知识图谱生命周期中不同步骤中存在的偏见的文献,并调查了引入偏见的因素以及知识图谱及其嵌入版本所呈现的偏见。讨论了现有测量和减轻策略的局限性,并提出了未来的发展路径。
Oct, 2022
通过分析500k篇美国在线新闻文章中存在的社会偏见类型,使用考虑了嵌入表示问题的多种算法以及WEAT,比较了这些算法在新闻文章中训练的模型所表示的期望社会偏见,结果发现标准偏差检测方法与心理学知识并不一致,而新提出的算法虽然减轻了这种差距,但仍然无法完全匹配这些文献。
Nov, 2022