分布式个体公平性认证
该论文提出了一种基于潜在表示的证书方法,帮助数据消费者获得现有和新数据点的个体公平性证书,实现了公平性约束和效用之间的平衡,并通过实验评估了该方法在五个真实数据集和多个公平性约束方面的可扩展性和表现力。
Feb, 2020
我们提出了一个名为 FAIRIF 的两阶段训练算法,它可以应用于一系列使用随机梯度下降训练的模型,并通过在小型验证集上计算样本权重来实现跨不同人口群体的模型性能平衡,从而缓解先前机器学习算法中存在的不公平问题。在合成数据集和实际数据集上的实验表明,FAIRIF 可以在牺牲很少的模型实用性的情况下实现更好的公平性 - 实用性权衡。
Jan, 2022
本文介绍了一个基于交互和隐私保护测试的框架,该框架允许对任何经过训练的模型进行公平程度的认证,无论其训练过程和架构如何,并且提供了一种加密技术来自动进行公平测试和认证推理,同时隐藏参与者的敏感数据。
Sep, 2020
本文旨在通过构建验证器来证明一个模型是否符合个体公平。我们针对决策模型与结构化数据的情况进行研究,特别考虑了线性分类器和核多项式 / 径向基函数分类器。实验结果表明,我们提出的算法对公开数据集的评估是可行的。
Jun, 2020
本文介绍了一种基于自适应浓度不等式的可扩展算法,用于验证机器学习系统在进行社会决策时是否会对少数族裔造成不公平待遇,并在一个名为 VeriFair 的工具中实现了这个算法,并证明该算法能够扩展到大的机器学习模型,包括一个比先前已验证过的神经网络大五个数量级的深度循环神经网络,虽然该技术只提供概率保证,但可以选择非常小的误差概率。
Dec, 2018
本文研究公平聚类问题并提出了采用 f - 散度测量统计相似度,以确保相似的个体得到类似的对待,该方案保证了群体公平性与个人公平性。在 $p$- 范目标的约束下,我们提供了可证明的近似保证聚类算法。同时,我们还考虑了群体公正和个人公正在受保护群体内的实现条件,并证明了个人公平性是群体公平性的必要条件。实验证明了这种方法的有效性。
Jun, 2020