通过匹配实现公平性
本文研究在没有标记受保护组的数据集的情况下,通过改善代理组的公平度量来提高真实敏感组的公平度,并在基准和实际数据集上进行了实验。 然而,该策略的有效性可能取决于公平度量的选择以及代理组在约束模型参数方面与真实受保护组的对齐程度。
Jun, 2018
本研究提出了一种黑盒技术FlipTest,旨在检测分类器中的歧视现象,通过优化传输将不同保护组的个体匹配,创建相似的样本对,构建Flipset以发现歧视,并生成透明度报告以阐明模型对给定子组的行为最相关的特征。
Jun, 2019
使用贝叶斯框架对少量带有标签的数据进行无标签数据增强,以更准确低偏差的方式评估群组公平问题,鉴于标签样本,我们提议使用一种层次潜在变量模型,估计每组未标记样本的校准得分,并证明了我们的方法在多个公平数据集,敏感属性和预测模型中具有显著的一致的估计误差降低,表明了使用无标签数据和贝叶斯推理的好处来评估预测模型的公平性。
Oct, 2020
该研究提出两种新的公平度量标准,ABPC和ABCC,用于精确量化分布级别的人口平等破坏。新的公平性指标直接衡量不同人口群体的预测概率分布之间的差异,并且在分类阈值调整时保证人口平等。
Jan, 2023
通过构建受其Lipschitz约束的群体阈值之间的连续概率函数,来实现组公平和个体公平,同时保留了模型的预测能力和鲁棒性,解决了使用不连续的概率函数进行校准时组和个体公平冲突的问题,同时避免了个人的赔率失衡问题。
Apr, 2023
本研究旨在探讨有关机器学习模型中特定人群或群体受到偏待的问题以及解决方法,其中我们特别研究了本地模型与全局模型之间公平性的关系,并提出了一种基于惩罚性经验损失最小化的全局公平训练算法,实验证明我们的方法在保持高准确率的同时,相比本地公平训练方法能够更有效地提升公平性。
May, 2023
我们设计了一种单一的群体盲扫描映射,它使源数据中两个群体的特征分布对齐,从而实现了(人口)群体平等,而不需要在映射的计算和使用过程中提供个体样本的受保护属性的值,也不依赖受保护属性的可访问性或估计。
Oct, 2023
通过引入在组公平性的形式定义,提出了一种预处理框架,以实现组间和组内公平性,并在维持准确性的同时,保证了来自同一族群的个体之间的公平性。将此框架应用于 COMPAS 风险评估和法学院数据集,并将其在实现组间和组内公平性方面的性能与两种基于正则化的方法进行了比较。
Oct, 2023
通过将与预测相关的分布属性纳入考虑,我们扩展了人口平等的概念,允许专家知识在公平解决方案中得到应用,并通过一个工资的实际案例说明了此新度量的使用,同时开发了解决实际挑战的参数方法,提供了一个适用于现实生活中应用场景的强大解决方案。
Oct, 2023
本研究聚焦于联邦学习中的群体公平性问题,旨在填补现有文献的空白。通过对相关工作的深入审视,创建了基于数据分区、位置及应用策略的解决方案新分类,并探讨了如何应对多种敏感群体的复杂性。研究指出,在联邦系统中实现群体公平性需求更多的研究方法。
Oct, 2024