交叉性别与医疗记录中的证言不公正
本文研究关于机器学习中的公平性问题,针对多种敏感属性,提出了应对交叉性公平性偏差的方法,定义了一系列评估数据或模型输出结果公平性的指标,并开发了后处理技术来减轻分类模型的交叉性偏差。这些技术不依赖于底层模型的任何假设,并可以保持公平性和预测性能的平衡。最后,展示了在实际数据集上提出的方法的有效性。
Nov, 2019
本研究提出了机器学习和人工智能系统中的公平性定义,并受到交叉性别、种族、性取向、阶级和残疾等影响因素的启发,通过保护属性子集合理分配资源,提供合理保护算法,同时在人口普查数据和 COMPAS 犯罪再犯数据集上进行案例研究。
Jul, 2018
本研究探讨交叉性是如何应用于 AI Fairness 领域,并指出研究人员在这个应用方面所存在的概念和实践差距,并提出了关于如何改进这种状况的建议。
Mar, 2023
使用机器学习在信用建模中的新数据来源引发了涉及受保护特征(例如种族、性别、年龄)或其他社会经济与人口统计数据的不公平决策的担忧。本文通过微金融背景展示了此类算法偏见的影响,并综合干预性的视角研究了以性别、年龄、婚姻状况、单亲状态和子女数量为定义的不同群体之间的信用分配不公平问题。我们发现在多元社会中应用自动化决策系统时,交叉性别、年龄和家庭状况的身份会影响信用分配模式,而机器学习技术对社会公平与不公平视而不见。因此,更全面地考虑交叉身份可以增强算法公平性的视角,更真实地推动平等结果,并提供更公正的前进路径。同时,我们发现除了受法律保护的特征外,像单亲状态和子女数量这样的敏感属性也可能导致不平衡的伤害。本研究对金融服务行业的影响进行了讨论。
Aug, 2023
通过深入分析,本文重点讨论了涉及种族、年龄和性别等因素的交叉偏见问题,提出了在当前文献中较少探索的种族、年龄和性别组合方面的性能差异。此外,本文在定量分析中引入了五个补充指标,包括不公平影响和不公平待遇指标,以克服当前主流方法中常被忽视的重要局限。研究结果表明,人脸识别系统存在普遍偏见,不仅限于种族,不同的人口统计因素导致显著不同的结果。通过揭示这些偏见及其影响,本文旨在促进进一步研究,以开发更公正、更公平的人脸识别和验证系统。
Jul, 2023
本文旨在探讨机器学习或人工智能算法因本身的偏见与成见会影响其输出结果的问题,分析现有关于交叉区域公平性的定义和衡量指标,并提出了一个简单的最坏情况比较方法来扩展现有群体公平指标的定义以涵盖交叉区域,最后讨论了处理关于交叉区域公平的社会、法律和政治框架。
Jan, 2021
本文针对交织系统对包括种族、性别、性取向、阶级和残疾等方面影响个体的观点,提出了一种皮尔逊贝塔贝叶斯概率建模方法,来对多重受保护属性的公正性进行可靠、高效的估算,以及模型建立和公正性测量的实用性解决方案。
Nov, 2018
本文通过时间序列的词汇联想分析,以及针对 OCR 错误引入噪音的技术处理,研究了加勒比地区殖民时期(18 世纪到 19 世纪)历史报纸中性别、种族偏见的连续性和转化。研究结果表明,种族和性别偏见是相互依存的,两者的交叉触发了不同效应,这与交叉性理论一致。
May, 2023
本研究使用多语言和交叉框架以及下游任务研究公平性问题,提出四个多语言公平评估语料库和一个新的统计框架来研究自然语言处理中的社会偏见,结果表明许多系统在性别、种族、民族和交叉社会偏见方面表现出显著的偏见。
Apr, 2022