无算法公平的七年回溯
提出了针对群体公平性的后处理缓解技术方法,通过调整基础模型的决策阈值,以提高公平性。在现实应用中,这种方法具有许多优势:后处理不需要访问模型训练流程,对基础模型架构没有偏好,并且计算成本较低。然而,现有方法仍面临其他挑战,如需要推理时了解敏感属性,并且常常被内部处理方法优于。本文提出了一个通用框架,将带有惩罚目标的内部处理方法转化为后处理过程,以克服先前后处理方法的缺点。此外,我们通过理论和对实际数据的大量实验表明,该后处理方法在公平性和错误折衷方面与内部处理相当甚至更好。
Dec, 2023
该论文研究了机器学习中的公平性问题,提出了在保持公平的前提下如何提高预测模型性能的方法,并且证明了最小误差率可以通过 Wasserstein 平均问题的最优值来计算,从而提出了一种简单的后处理方法来保证模型的公平性。
Nov, 2022
本论文开展了第一次大规模实证研究,全面比较了现有最先进的公平性改进技术的性能,结果显示不同方法在不同数据集和敏感属性上表现存在较大差异,且不同的公平评估指标产生显著不同的评估结果,其中预处理方法和内处理方法优于后处理方法,预处理方法表现最佳,本研究为深度学习模型公平性提供了全面的建议。
Jan, 2024
本文考虑了在多分类情况下实现公平性的问题,并对基于后处理方法的方法进行了扩展,以实现机器学习分类器的公平性,我们通过系统性的合成实验探讨了该方法何时产生公平和准确的预测,同时在几个公开可用的真实世界应用数据集上评估了有所歧视的公平性权衡。 我们发现,总体上,我们的方法在数据集中的个体数量相对于类别和受保护组的数量较高时,其产生的精度下降微不足道,且强制实施公平。
Jan, 2022
我们提出了一个后处理算法来进行公平分类,通过统一的族群公平度量准则,包括统计平衡、平等机会和平衡赔率,来减轻模型偏差,适用于多类问题和具有属性感知和属性盲的设置。通过使用 “公平代价” 来重新校准给定基准模型的输出分数,它通过线性组合(预测的)群体成员身份来实现公平性。我们的算法是基于一种表达结果的表示方法,该结果表明最优公平分类器可以通过线性后处理损失函数和群体预测器来表示,这是通过将它们用作足够统计量,将公平分类问题重新形式化为线性规划问题来推导出来的。通过解决经验线性规划来估计后处理器的参数。对基准数据集上的实验证明了我们的算法与现有算法相比在减小差异方面的效率和有效性,特别是在更大的问题上。
May, 2024
研究二进制决策制定分类器在存在不完美信息的情况下的流行方法是首先建立非二进制的 “评分” 分类器,该分类器在所有受保护的组中进行了校准,然后对该分数进行后处理以获得二进制决策。我们研究通过后处理校准分数实现各种公平性属性的可行性,然后表明推迟后处理器可以使更多的公平条件在最终决策上得以保持。
Oct, 2018
该研究提出了一种差分隐私的后处理算法,用于学习满足统计平等的公平回归器,解决了机器学习模型在敏感数据上训练时的隐私问题和其传播历史偏见的公平问题,并提供了算法的样本复杂性和公平性保证,揭示了在直方图中选择的箱数的选择对于统计偏倚和方差之间的权衡,其中使用较少的箱数总是以错误为代价倾向于公平性。
May, 2024
本研究探讨了不同隐私保护机制中,后处理免疫性质的影响,并分析了在美国人口普查数据分配基金等重大社会决策中,后处理机制引起的不公平影响,提出了一种新的后处理机制,旨在减少公平问题和隐私保护成本。
Jan, 2022
在机器学习模型在决策过程中的不断增加使用中,研究这些系统的公平性已经在不断推进。尽管在入处理和后处理设置中已经进行了大量工作来研究群体公平性,但在预处理领域,这些结果与理论上的联系还很少。本文将在随机响应框架中的响应变量修改下进行下游模型的群体公平性作为一个优化设计矩阵的问题提出。我们展示了群体公平性的度量可以通过最优模型效用进行直接控制,并提出了一个称为 FairRR 的预处理算法,它可以产生出色的下游模型效用和公平性。
Mar, 2024
本文研究了在只有保护属性的不完美信息的情况下,公平干预是否仍然可行。我们特别研究了 Hardt 等人(2016)的等化几率后处理方法,证明了在属性扰动的情况下,只要符合我们所确定的条件,即使运行等化几率,分类器的偏差也会降低。我们还研究了所得分类器的误差,并实证观察到,在我们确定的条件下,大多数情况下误差不会因保护属性的扰动而受到影响。
Jun, 2019