分布式个体公平性认证
该论文提出了一种基于潜在表示的证书方法,帮助数据消费者获得现有和新数据点的个体公平性证书,实现了公平性约束和效用之间的平衡,并通过实验评估了该方法在五个真实数据集和多个公平性约束方面的可扩展性和表现力。
Feb, 2020
我们提出了一个名为 FAIRIF 的两阶段训练算法,它可以应用于一系列使用随机梯度下降训练的模型,并通过在小型验证集上计算样本权重来实现跨不同人口群体的模型性能平衡,从而缓解先前机器学习算法中存在的不公平问题。在合成数据集和实际数据集上的实验表明,FAIRIF 可以在牺牲很少的模型实用性的情况下实现更好的公平性 - 实用性权衡。
Jan, 2022
通过在德国信贷批准数据集上的实验证明,将图拉普拉斯正则化程序用于算法公平性技术可以提高个人公平性并降低偏差,同时揭示了 Prediction Consistency 评分可能会误导的问题。
May, 2024
本文介绍了一个基于交互和隐私保护测试的框架,该框架允许对任何经过训练的模型进行公平程度的认证,无论其训练过程和架构如何,并且提供了一种加密技术来自动进行公平测试和认证推理,同时隐藏参与者的敏感数据。
Sep, 2020
本文旨在通过构建验证器来证明一个模型是否符合个体公平。我们针对决策模型与结构化数据的情况进行研究,特别考虑了线性分类器和核多项式 / 径向基函数分类器。实验结果表明,我们提出的算法对公开数据集的评估是可行的。
Jun, 2020
本文介绍了一种基于自适应浓度不等式的可扩展算法,用于验证机器学习系统在进行社会决策时是否会对少数族裔造成不公平待遇,并在一个名为 VeriFair 的工具中实现了这个算法,并证明该算法能够扩展到大的机器学习模型,包括一个比先前已验证过的神经网络大五个数量级的深度循环神经网络,虽然该技术只提供概率保证,但可以选择非常小的误差概率。
Dec, 2018