构成分类的多组公平性提高的可伸缩解决方案
通过概率人群分析,我们重新审视标准的公平分类问题,并揭示出贝叶斯最优分类器。我们的方法统一了各种现有的组公平分类方法,并扩展到各种不可分解的多类性能度量和公平性度量。在各种真实数据集上,我们提出的方法在公平性与性能的权衡方面优于基线。
Jun, 2020
本文提出了一种新的机器学习框架,旨在为实现公正和准确性而学习分组,从而减少 ML 模型在特定人群中的偏见和歧视,并在各种数据集上实现了最新技术的改进。
Apr, 2023
我们提出了一个后处理算法来进行公平分类,通过统一的族群公平度量准则,包括统计平衡、平等机会和平衡赔率,来减轻模型偏差,适用于多类问题和具有属性感知和属性盲的设置。通过使用 “公平代价” 来重新校准给定基准模型的输出分数,它通过线性组合(预测的)群体成员身份来实现公平性。我们的算法是基于一种表达结果的表示方法,该结果表明最优公平分类器可以通过线性后处理损失函数和群体预测器来表示,这是通过将它们用作足够统计量,将公平分类问题重新形式化为线性规划问题来推导出来的。通过解决经验线性规划来估计后处理器的参数。对基准数据集上的实验证明了我们的算法与现有算法相比在减小差异方面的效率和有效性,特别是在更大的问题上。
May, 2024
通过评估 LLM(大型语言模型)在毒性分类任务中的公平性表现,我们引入多种修复技术并对公平性和性能进行了评估,以鼓励在基于 LLM 的分类器中进行更多关于群体公平性的研究。
Jun, 2024
通过引入在组公平性的形式定义,提出了一种预处理框架,以实现组间和组内公平性,并在维持准确性的同时,保证了来自同一族群的个体之间的公平性。将此框架应用于 COMPAS 风险评估和法学院数据集,并将其在实现组间和组内公平性方面的性能与两种基于正则化的方法进行了比较。
Oct, 2023
该研究提出了公平混合(fair mixup)的新型数据增强策略,通过对分组间插值样本的正则化训练来实现分类器的公平性约束,并分析实验证明其在表格、视觉和语言测试中确保了更好的准确性和公平度的泛化能力。
Mar, 2021
本文利用在线随机决策过程实现近似群体公平,其中公平度量考虑到等于几率。通过经典的专家学习方案,通过一个有限的分类器集的基础上运行该算法的单个实例,为标签类和敏感群体运行单独的算法实例,通过一些理论结果表明,在不损失太多遗憾的情况下,可以实现近似的等几率结构。
Aug, 2019
本文考虑了在多分类情况下实现公平性的问题,并对基于后处理方法的方法进行了扩展,以实现机器学习分类器的公平性,我们通过系统性的合成实验探讨了该方法何时产生公平和准确的预测,同时在几个公开可用的真实世界应用数据集上评估了有所歧视的公平性权衡。 我们发现,总体上,我们的方法在数据集中的个体数量相对于类别和受保护组的数量较高时,其产生的精度下降微不足道,且强制实施公平。
Jan, 2022