本文研究关于机器学习中的公平性问题,针对多种敏感属性,提出了应对交叉性公平性偏差的方法,定义了一系列评估数据或模型输出结果公平性的指标,并开发了后处理技术来减轻分类模型的交叉性偏差。这些技术不依赖于底层模型的任何假设,并可以保持公平性和预测性能的平衡。最后,展示了在实际数据集上提出的方法的有效性。
Nov, 2019
本研究提出了机器学习和人工智能系统中的公平性定义,并受到交叉性别、种族、性取向、阶级和残疾等影响因素的启发,通过保护属性子集合理分配资源,提供合理保护算法,同时在人口普查数据和 COMPAS 犯罪再犯数据集上进行案例研究。
Jul, 2018
这篇文章介绍了机器学习中的社会偏见和公平性问题,总结了预处理、处理和后处理等多种方法,包含二分类、回归、推荐系统、无监督学习和自然语言处理等多个方面,同时提供了多个开源库。最后,列举了公平性研究的四个难题。
Oct, 2020
本文评估并比较了来自哲学、女性主义研究、批判性种族和民族研究、法律研究、人类学和科学技术研究等非计算学科的现有批评,旨在提供 ML 公正技术干预的跨学科理解,以此产生社会上最边缘化群体的公正结果,最后讨论了基于这些批评的未来 ML 公正研究方向。
May, 2022
本文旨在探讨机器学习或人工智能算法因本身的偏见与成见会影响其输出结果的问题,分析现有关于交叉区域公平性的定义和衡量指标,并提出了一个简单的最坏情况比较方法来扩展现有群体公平指标的定义以涵盖交叉区域,最后讨论了处理关于交叉区域公平的社会、法律和政治框架。
Jan, 2021
本文旨在调查研究自动化决策系统中机器学习算法存在的偏差及其与公平、隐私和分类准确性之间的关系,并综述了处理公平 - 准确性权衡的不同方法。作者通过实验分析了公平度量和准确度在现实世界场景中的关系。
Sep, 2022
讨论如何使用因果贝叶斯网络和最优输运理论来处理机器学习公平性问题,尤其是在复杂的不公平场景下,提出了一种统一的框架来处理不同的情况和公平标准,并介绍了一种学习公平表示的方法和一种考虑敏感属性使用限制的技术。
Dec, 2020
使用机器学习在信用建模中的新数据来源引发了涉及受保护特征(例如种族、性别、年龄)或其他社会经济与人口统计数据的不公平决策的担忧。本文通过微金融背景展示了此类算法偏见的影响,并综合干预性的视角研究了以性别、年龄、婚姻状况、单亲状态和子女数量为定义的不同群体之间的信用分配不公平问题。我们发现在多元社会中应用自动化决策系统时,交叉性别、年龄和家庭状况的身份会影响信用分配模式,而机器学习技术对社会公平与不公平视而不见。因此,更全面地考虑交叉身份可以增强算法公平性的视角,更真实地推动平等结果,并提供更公正的前进路径。同时,我们发现除了受法律保护的特征外,像单亲状态和子女数量这样的敏感属性也可能导致不平衡的伤害。本研究对金融服务行业的影响进行了讨论。
Aug, 2023
本文介绍公平概念的多种不同观点,并提出了在真实世界场景下最适合的公平概念,该结果总结于决策图中,以帮助从业者和决策者浏览 ML 的巨大目录。
Jun, 2020
调查表明,人工智能领域中存在各种偏见和不公,因此机器学习研究人员定义了公平性的分类,以解决现有 AI 系统中的偏见问题。此外,调查还考察了在 AI 的不同领域和子领域中,现有技术的问题及其应对措施,以期鼓励研究人员在其各自领域中研究此问题。
Aug, 2019