公平先验:改进深度神经网络公平性偏向子群发现
AI 系统在特定人群中产生不公平结果,需要理解特定敏感属性上的偏见。本文通过发现交叉敏感属性下多样化的高偏见子群体,提出了一种基于偏见引导的生成网络(BGGN)。通过将每个偏见值视为奖励,BGGN 可以高效地生成高偏见的交叉敏感属性。实验证明 BGGN 在现实世界的文本和图像数据集上具有多样性且高效的发现能力。进一步评估生成的未见但可能存在不公平的交叉敏感属性,我们将其建模为提示,并使用现代生成型人工智能生成新的文本和图像。频繁生成偏见数据的结果为发现流行现代生成型人工智能系统中潜在的不公平提供了新的见解。警告:本文包含具有冒犯性的生成示例。
May, 2024
本文研究关于机器学习中的公平性问题,针对多种敏感属性,提出了应对交叉性公平性偏差的方法,定义了一系列评估数据或模型输出结果公平性的指标,并开发了后处理技术来减轻分类模型的交叉性偏差。这些技术不依赖于底层模型的任何假设,并可以保持公平性和预测性能的平衡。最后,展示了在实际数据集上提出的方法的有效性。
Nov, 2019
本文介绍了一种使用因果干预公平性范例,通过在数据管理的集成组件中考虑公平性来识别特征以提高预测质量而不添加偏差的方法,提出了一种使用条件独立性检测的方法来确定确保干预公平的特征子集,并通过现实世界的数据集进行了详细的实证评估,证明了方法的有效性和效率。
Jun, 2020
本文旨在探讨机器学习或人工智能算法因本身的偏见与成见会影响其输出结果的问题,分析现有关于交叉区域公平性的定义和衡量指标,并提出了一个简单的最坏情况比较方法来扩展现有群体公平指标的定义以涵盖交叉区域,最后讨论了处理关于交叉区域公平的社会、法律和政治框架。
Jan, 2021
通过引入在组公平性的形式定义,提出了一种预处理框架,以实现组间和组内公平性,并在维持准确性的同时,保证了来自同一族群的个体之间的公平性。将此框架应用于 COMPAS 风险评估和法学院数据集,并将其在实现组间和组内公平性方面的性能与两种基于正则化的方法进行了比较。
Oct, 2023
该研究提出了一种新的框架,能够在现实数据集中同时增加个体公平性和群体公平性,并展示了在信用、就业和刑事司法等应用中,在分类准确性、个体和群体公平性方面相比之前的工作表现更为优异。
Dec, 2018
本文旨在通过实现一个两步训练过程来识别和减轻个人不公平,并利用最近在此领域发表的一些技术,特别是在信贷审批用例中适用的技术。我们还调查了实现个人公平性的技术在实现团体公平性方面的有效程度以及提出了第二度量标准来确定模型如何公平地处理类似的个体,最后呈现了一些与个人不公平减轻技术相关的实验结果。
Nov, 2022
通过引入结构回归方法进行细分评估,以演示即使对于非常小的子群体,也可以得出可靠的系统性能估计,进而提供相应的推断策略以构建置信区间,并探索拟合度检验如何揭示交叉群体所经历的公平相关伤害的结构。
Jan, 2024